corpus
stringclasses 4
values | category
stringclasses 9
values | dataset
stringclasses 23
values | task
stringclasses 69
values | prompt
stringclasses 52
values | model
stringclasses 48
values | ckpt_num
int64 1k
47.7k
| score
float64 -0.08
100
|
|---|---|---|---|---|---|---|---|
HPLT 2.0
|
Language-specific & world knowledge
|
openbookqa_ca
|
openbookqa_ca_p1
|
{{question_stem}}
A. {{choices['text'][0]}}
B. {{choices['text'][1]}}
C. {{choices['text'][2]}}
D. {{choices['text'][3]}}
Resposta:
|
4B
| 2,000
| 27.2
|
HPLT 2.0
|
Language-specific & world knowledge
|
openbookqa_ca
|
openbookqa_ca_p2
|
{{question_stem}}
Opció A: {{choices['text'][0]}}
Opció B: {{choices['text'][1]}} C: {{choices['text'][2]}}
Opció D: {{choices['text'][3]}}
És la resposta correcta A, B, C o D?
|
4B
| 2,000
| 25.2
|
HPLT 2.0
|
Paraphrase detection
|
parafraseja
|
parafraseja_p0
| null |
4B
| 2,000
| 50.925
|
HPLT 2.0
|
Paraphrase detection
|
parafraseja
|
parafraseja_p1
|
Determina si les dues oracions següents expressen la mateixa idea o no.
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Resposta:
|
4B
| 2,000
| 49.95
|
HPLT 2.0
|
Paraphrase detection
|
parafraseja
|
parafraseja_p2
|
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Pregunta: Les oracions 1 i 2 expressen el mateix significat? Sí o no?
Resposta:
|
4B
| 2,000
| 50.575
|
HPLT 2.0
|
Paraphrase detection
|
paws_ca
|
paws_ca_p0
| null |
4B
| 2,000
| 50.7
|
HPLT 2.0
|
Paraphrase detection
|
paws_ca
|
paws_ca_p1
|
Determina si les dues oracions següents expressen la mateixa idea o no.
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Resposta:
|
4B
| 2,000
| 53.85
|
HPLT 2.0
|
Paraphrase detection
|
paws_ca
|
paws_ca_p2
|
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Pregunta: Les oracions 1 i 2 expressen el mateix significat? Sí o no?
Resposta:
|
4B
| 2,000
| 50.55
|
HPLT 2.0
|
Commonsense reasoning
|
piqa_ca
|
piqa_ca_p0
|
Pregunta: {{goal}}
Resposta:
|
4B
| 2,000
| 58.324
|
HPLT 2.0
|
Commonsense reasoning
|
piqa_ca
|
piqa_ca_p1
|
{{goal}}
A. {{sol1}}
B. {{sol2}}
Resposta:
|
4B
| 2,000
| 49.565
|
HPLT 2.0
|
Commonsense reasoning
|
piqa_ca
|
piqa_ca_p2
|
{{goal}}
A. {{sol1}}
B. {{sol2}}
Quina és la resposta correcta?
|
4B
| 2,000
| 49.51
|
HPLT 2.0
|
Commonsense reasoning
|
siqa_ca
|
siqa_ca_p0
|
Pregunta: {{context}} {{question}}
Resposta:
|
4B
| 2,000
| 34.442
|
HPLT 2.0
|
Commonsense reasoning
|
siqa_ca
|
siqa_ca_p1
|
Passatge: {{context}}
Pregunta: {{question}}
A. {{answerA}}
B. {{answerB}}
C. {{answerC}}
Resposta:
|
4B
| 2,000
| 33.06
|
HPLT 2.0
|
Commonsense reasoning
|
siqa_ca
|
siqa_ca_p2
|
Llegeix el passatge i respon a la pregunta: {{context}}
{{question}}
Opció A: {{answerA}}
Opció B: {{answerB}}
Opció C: {{answerC}}
És la resposta correcta A, B o C?
|
4B
| 2,000
| 33.879
|
HPLT 2.0
|
Entailment
|
teca
|
teca_p0
| null |
4B
| 2,000
| 32.735
|
HPLT 2.0
|
Entailment
|
teca
|
teca_p1
|
Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Indica la relació entre la premissa i la hipòtesi:
|
4B
| 2,000
| 33.16
|
HPLT 2.0
|
Entailment
|
teca
|
teca_p2
|
Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Quina és la relació entre la premissa i la hipòtesi?
A. En acord
B. Neutres entre si
C. En contradicció
Resposta:
|
4B
| 2,000
| 35.333
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_gen
|
veritasqa_ca_gen_p0
|
Respon a la següent pregunta:
{{question}}
Resposta:
|
4B
| 2,000
| 0
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_gen
|
veritasqa_ca_gen_p1
|
Respon amb claredat i precisió a la pregunta següent:
{{question}}
Resposta:
|
4B
| 2,000
| 0.041
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_gen
|
veritasqa_ca_gen_p2
|
Proporciona una resposta detallada per a la pregunta següent:
{{question}}
Resposta:
|
4B
| 2,000
| 0.053
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc1
|
veritasqa_ca_mc1_p0
|
Pregunta: {{question}}
Resposta:
|
4B
| 2,000
| 30.028
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc1
|
veritasqa_ca_mc1_p1
|
def mc1_p1(doc):
choices = doc["mc1_targets"]["choices"]
formatted_choices = "\n".join(
[f"Opción {LETTERS[i]}: {choice}" for i, choice in enumerate(choices)]
)
letters = LETTERS[: len(choices)]
return f"Pregunta: {doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(letters[:-1])} o {letters[-1]}?\nResposta:"
|
4B
| 2,000
| 81.303
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc1
|
veritasqa_ca_mc1_p2
|
def mc1_p2(doc):
choices = doc["mc1_targets"]["choices"]
formatted_choices = "".join(list(map(lambda choice: f"\n- {choice}", choices)))
return f"Pregunta: {doc['question']}\nTria la resposta correcta de la llista:\n{formatted_choices}\nQuina és la resposta correcta?\nResposta:"
|
4B
| 2,000
| 40.51
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc2
|
veritasqa_ca_mc2_p0
|
Pregunta: {{question}}
Resposta:
|
4B
| 2,000
| 52.15
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc2
|
veritasqa_ca_mc2_p1
|
def mc2_p1(doc):
choices = doc["mc2_targets"]["choices"]
formatted_choices = "\n".join(
[f"Opción {LETTERS[i]}: {choice}" for i, choice in enumerate(choices)]
)
letters = LETTERS[: len(choices)]
return f"Pregunta: {doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(letters[:-1])} o {letters[-1]}?\nResposta:"
|
4B
| 2,000
| 81.729
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc2
|
veritasqa_ca_mc2_p2
|
def mc2_p2(doc):
choices = doc["mc2_targets"]["choices"]
formatted_choices = "".join(list(map(lambda choice: f"\n- {choice}", choices)))
return f"Pregunta: {doc['question']}\nTria la resposta correcta de la llista:\n{formatted_choices}\nQuina és la resposta correcta?\nResposta:"
|
4B
| 2,000
| 57.274
|
HPLT 2.0
|
Entailment
|
wnli_ca
|
wnli_ca_p0
|
{{sentence1}}
Pregunta: {{sentence2}} Cert o Fals?
Resposta:
|
4B
| 2,000
| 56.338
|
HPLT 2.0
|
Entailment
|
wnli_ca
|
wnli_ca_p1
|
Llegeix el text i contesta si l'afirmació és veritable o falsa.
Texto: {{sentence1}}
Afirmación: {{sentence2}}
Resposta:
|
4B
| 2,000
| 46.479
|
HPLT 2.0
|
Entailment
|
wnli_ca
|
wnli_ca_p2
|
{{sentence1}}
Pregunta: {{sentence2}}.
Resposta:
|
4B
| 2,000
| 43.662
|
HPLT 2.0
|
Entailment
|
xnli_ca
|
xnli_ca_p0
| null |
4B
| 2,000
| 41.084
|
HPLT 2.0
|
Entailment
|
xnli_ca
|
xnli_ca_p1
|
Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Indica la relació entre la premissa i la hipòtesi:
|
4B
| 2,000
| 34.137
|
HPLT 2.0
|
Entailment
|
xnli_ca
|
xnli_ca_p2
|
Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Quina és la relació entre la premissa i la hipòtesi?
A. En acord
B. Neutres entre si
C. En contradicció
Resposta:
|
4B
| 2,000
| 32.651
|
HPLT 2.0
|
Reading comprehension
|
xquad_ca
|
xquad_ca_p0
|
Context: {{context}}
Pregunta: {{question}}
Resposta:
|
4B
| 2,000
| 3.864
|
HPLT 2.0
|
Reading comprehension
|
xquad_ca
|
xquad_ca_p1
|
{{context}}
Pregunta: {{question}}
Respecte al passatge anterior, la resposta correcta a la pregunta és
|
4B
| 2,000
| 3.571
|
HPLT 2.0
|
Reading comprehension
|
xquad_ca
|
xquad_ca_p2
|
Llegeix el següent passatge i contesta la pregunta.
Passatge: {{context}}
Pregunta: {{question}}
Resposta:
|
4B
| 2,000
| 4.045
|
HPLT 2.0
|
Commonsense reasoning
|
xstorycloze_ca
|
xstorycloze_ca_p0
|
{{[input_sentence_1, input_sentence_2, input_sentence_3, input_sentence_4]|join(' ')}}
|
4B
| 2,000
| 52.482
|
HPLT 2.0
|
Commonsense reasoning
|
xstorycloze_ca
|
xstorycloze_ca_p1
|
Llegeix la següent història: {{[input_sentence_1, input_sentence_2, input_sentence_3, input_sentence_4]|join(' ')}}
Tria la continuació correcta:
- {{sentence_quiz1}}
- {{sentence_quiz2}}
|
4B
| 2,000
| 51.688
|
HPLT 2.0
|
Commonsense reasoning
|
xstorycloze_ca
|
xstorycloze_ca_p2
|
{{[input_sentence_1, input_sentence_2, input_sentence_3, input_sentence_4] | join(' ') }}
Què ocorre després?
A. {{ sentence_quiz1}}
B. {{sentence_quiz2}}
Resposta:
|
4B
| 2,000
| 52.813
|
HPLT 2.0
|
Language-specific & world knowledge
|
arc_ca_challenge
|
arc_ca_challenge_p0
|
Pregunta: {{question}}
Resposta:
|
6B
| 3,000
| 22.27
|
HPLT 2.0
|
Language-specific & world knowledge
|
arc_ca_challenge
|
arc_ca_challenge_p1
|
def p1(doc):
candidates, choices = doc["choices"]["text"], doc["choices"]["label"]
formatted_choices = "\n".join(
[f"{choices[i]}: {candidates[i]}" for i, _ in enumerate(candidates)]
)
return f"{doc['question']}\n{formatted_choices}\nResposta:"
|
6B
| 3,000
| 22.611
|
HPLT 2.0
|
Language-specific & world knowledge
|
arc_ca_challenge
|
arc_ca_challenge_p2
|
def p2(doc):
candidates, choices = doc["choices"]["text"], doc["choices"]["label"]
formatted_choices = "\n".join(
[f"Opción {choices[i]}: {candidates[i]}" for i, _ in enumerate(candidates)]
)
return f"{doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(choices[:-1])} o {choices[-1]}?"
|
6B
| 3,000
| 26.962
|
HPLT 2.0
|
Language-specific & world knowledge
|
arc_ca_easy
|
arc_ca_easy_p0
|
Pregunta: {{question}}
Resposta:
|
6B
| 3,000
| 34.428
|
HPLT 2.0
|
Language-specific & world knowledge
|
arc_ca_easy
|
arc_ca_easy_p1
|
def p1(doc):
candidates, choices = doc["choices"]["text"], doc["choices"]["label"]
formatted_choices = "\n".join(
[f"{choices[i]}: {candidates[i]}" for i, _ in enumerate(candidates)]
)
return f"{doc['question']}\n{formatted_choices}\nResposta:"
|
6B
| 3,000
| 24.958
|
HPLT 2.0
|
Language-specific & world knowledge
|
arc_ca_easy
|
arc_ca_easy_p2
|
def p2(doc):
candidates, choices = doc["choices"]["text"], doc["choices"]["label"]
formatted_choices = "\n".join(
[f"Opción {choices[i]}: {candidates[i]}" for i, _ in enumerate(candidates)]
)
return f"{doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(choices[:-1])} o {choices[-1]}?"
|
6B
| 3,000
| 24.369
|
HPLT 2.0
|
Language-specific & world knowledge
|
catalanqa
|
catalanqa_p0
|
Context: {{context}}
Pregunta: {{question}}
Resposta:
|
6B
| 3,000
| 7.117
|
HPLT 2.0
|
Language-specific & world knowledge
|
catalanqa
|
catalanqa_p1
|
{{context}}
Pregunta: {{question}}
Respecte al passatge anterior, la resposta correcta a la pregunta és
|
6B
| 3,000
| 4.794
|
HPLT 2.0
|
Language-specific & world knowledge
|
catalanqa
|
catalanqa_p2
|
Llegeix el següent passatge i contesta la pregunta.
Passatge: {{context}}
Pregunta: {{question}}
Resposta:
|
6B
| 3,000
| 7.124
|
HPLT 2.0
|
Reading comprehension
|
catbelebele
|
catbelebele_p0
|
Passatge: {{flores_passage}}
Pregunta: {{question.strip()}}
A. {{mc_answer1}}
B. {{mc_answer2}}
C. {{mc_answer3}}
D. {{mc_answer4}}
Resposta:
|
6B
| 3,000
| 22.778
|
HPLT 2.0
|
Reading comprehension
|
catbelebele
|
catbelebele_p1
|
Llegeix el passatge i respon a la pregunta: {{flores_passage}}
{{question.strip()}}
Opció A: {{mc_answer1}}
Opció B: {{mc_answer2}}
Opció C: {{mc_answer3}}
Opció D: {{mc_answer4}}
És la resposta correcta A, B, C o D?
|
6B
| 3,000
| 28.889
|
HPLT 2.0
|
Reading comprehension
|
catbelebele
|
catbelebele_p2
|
{{flores_passage}}
En base al passatge anterior, respon a la pregunta: {{question}}
A: {{mc_answer1}}
B: {{mc_answer2}}
C: {{mc_answer3}}
D: {{mc_answer4}}
Quina és la resposta correcta?
|
6B
| 3,000
| 23.111
|
HPLT 2.0
|
Language knowledge
|
catcola
|
catcola_p0
|
{{Sentence}}
Pregunta: Té sentit aquesta frase?
Resposta:
|
6B
| 3,000
| 0.041
|
HPLT 2.0
|
Language knowledge
|
catcola
|
catcola_p1
|
Frase: {{Sentence}}
Pregunta: Té sentit aquesta frase?
Resposta:
|
6B
| 3,000
| 0.034
|
HPLT 2.0
|
Language knowledge
|
catcola
|
catcola_p2
|
Determina si la següent frase té sentit: {{Sentence}}
Resposta:
|
6B
| 3,000
| 0.028
|
HPLT 2.0
|
Commonsense reasoning
|
cocoteros_va
|
cocoteros_va_p0
|
Genera una frase curta amb estes paraules: {{keywords}}. El context és: {{context}}
Resposta:
|
6B
| 3,000
| 1.378
|
HPLT 2.0
|
Commonsense reasoning
|
cocoteros_va
|
cocoteros_va_p1
|
Escriu una frase curta amb aquestes paraules clau: {{keywords}}.
Tingues en compte el següent context: {{context}}.
Resposta:
|
6B
| 3,000
| 1.414
|
HPLT 2.0
|
Commonsense reasoning
|
cocoteros_va
|
cocoteros_va_p2
|
Construeix una oració tenint en compte el següent context: {{context}}.
Utilitza les paraules clau: {{keywords}}.
Resposta:
|
6B
| 3,000
| 0.388
|
HPLT 2.0
|
Commonsense reasoning
|
copa_ca
|
copa_ca_p0
|
{{premise[:-1].strip() + " " + {"cause": "perquè", "effect": "i per tant"}[question]}}
|
6B
| 3,000
| 58.4
|
HPLT 2.0
|
Commonsense reasoning
|
copa_ca
|
copa_ca_p1
|
{{premise[:-1].strip() + " " + {"cause": "atès que", "effect": "així que"}[question]}}
|
6B
| 3,000
| 57.4
|
HPLT 2.0
|
Commonsense reasoning
|
copa_ca
|
copa_ca_p2
|
{{premise[:-1].strip() + {"cause": " a causa que", "effect": ", i com a resultat,"}[question]}}
|
6B
| 3,000
| 58.6
|
HPLT 2.0
|
Reading comprehension
|
coqcat
|
coqcat_p0
|
{{story+"\n\n"}}{% for i in range(questions|length-1) %}{{"Q: "+questions[i]+"\n\n"+"A: "+answers["input_text"][i]+"\n\n"}}{% endfor %}{{"Q: "+questions[-1]+"\n\n"+"A:"}}
|
6B
| 3,000
| 17.204
|
HPLT 2.0
|
Reading comprehension
|
coqcat
|
coqcat_p1
|
{{story+"\n\n"}}Respecte al passatge anterior, la resposta correcta a la pregunta és: {% for i in range(questions|length-1) %}{{"Pregunta: "+questions[i]+"\n\n"+"Resposta: "+answers["input_text"][i]+"\n\n"}}{% endfor %}{{"Pregunta: "+questions[-1]+"\n\n"+"Resposta:"}}
|
6B
| 3,000
| 15.257
|
HPLT 2.0
|
Reading comprehension
|
coqcat
|
coqcat_p2
|
Llegeix el següent passatge i contesta la pregunta\n\nPassatge: {{story+"\n\n"}}{% for i in range(questions|length-1) %}{{"Pregunta: "+questions[i]+"\n\n"+"Resposta: "+answers["input_text"][i]+"\n\n"}}{% endfor %}{{"Pregunta: "+questions[-1]+"\n\n"+"Resposta:"}}
|
6B
| 3,000
| 15.35
|
HPLT 2.0
|
Machine translation
|
flores_en-ca
|
flores_en-ca_p0
|
Translate the following sentence into Catalan: {{sentence_eng_Latn}}
Catalan:
|
6B
| 3,000
| 0.25
|
HPLT 2.0
|
Machine translation
|
flores_en-ca
|
flores_en-ca_p1
|
Translate the sentence from English to Catalan.
Source sentence (English): {{sentence_eng_Latn}}
Target sentence (Catalan):
|
6B
| 3,000
| 0.405
|
HPLT 2.0
|
Machine translation
|
flores_en-ca
|
flores_en-ca_p2
|
The following sentence is written in English. Translate it into Catalan.
English: {{sentence_eng_Latn}}
Catalan:
|
6B
| 3,000
| 0.362
|
HPLT 2.0
|
Mathematical reasoning
|
mgsm_direct_ca
|
mgsm_direct_ca_p0
|
Pregunta: {{question}}
Resposta:
|
6B
| 3,000
| 0
|
HPLT 2.0
|
Mathematical reasoning
|
mgsm_direct_ca
|
mgsm_direct_ca_p1
|
Respon amb claredat i precisió a la pregunta següent
{{question}}
Resposta:
|
6B
| 3,000
| 0
|
HPLT 2.0
|
Mathematical reasoning
|
mgsm_direct_ca
|
mgsm_direct_ca_p2
|
Respon a la següent pregunta:
{{question}}
Raona la teva resposta:
|
6B
| 3,000
| 0
|
HPLT 2.0
|
Language-specific & world knowledge
|
openbookqa_ca
|
openbookqa_ca_p0
|
question_stem
|
6B
| 3,000
| 30.6
|
HPLT 2.0
|
Language-specific & world knowledge
|
openbookqa_ca
|
openbookqa_ca_p1
|
{{question_stem}}
A. {{choices['text'][0]}}
B. {{choices['text'][1]}}
C. {{choices['text'][2]}}
D. {{choices['text'][3]}}
Resposta:
|
6B
| 3,000
| 27.6
|
HPLT 2.0
|
Language-specific & world knowledge
|
openbookqa_ca
|
openbookqa_ca_p2
|
{{question_stem}}
Opció A: {{choices['text'][0]}}
Opció B: {{choices['text'][1]}} C: {{choices['text'][2]}}
Opció D: {{choices['text'][3]}}
És la resposta correcta A, B, C o D?
|
6B
| 3,000
| 25.2
|
HPLT 2.0
|
Paraphrase detection
|
parafraseja
|
parafraseja_p0
| null |
6B
| 3,000
| 51.95
|
HPLT 2.0
|
Paraphrase detection
|
parafraseja
|
parafraseja_p1
|
Determina si les dues oracions següents expressen la mateixa idea o no.
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Resposta:
|
6B
| 3,000
| 50.275
|
HPLT 2.0
|
Paraphrase detection
|
parafraseja
|
parafraseja_p2
|
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Pregunta: Les oracions 1 i 2 expressen el mateix significat? Sí o no?
Resposta:
|
6B
| 3,000
| 50.725
|
HPLT 2.0
|
Paraphrase detection
|
paws_ca
|
paws_ca_p0
| null |
6B
| 3,000
| 51.35
|
HPLT 2.0
|
Paraphrase detection
|
paws_ca
|
paws_ca_p1
|
Determina si les dues oracions següents expressen la mateixa idea o no.
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Resposta:
|
6B
| 3,000
| 54.4
|
HPLT 2.0
|
Paraphrase detection
|
paws_ca
|
paws_ca_p2
|
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Pregunta: Les oracions 1 i 2 expressen el mateix significat? Sí o no?
Resposta:
|
6B
| 3,000
| 47.75
|
HPLT 2.0
|
Commonsense reasoning
|
piqa_ca
|
piqa_ca_p0
|
Pregunta: {{goal}}
Resposta:
|
6B
| 3,000
| 60.664
|
HPLT 2.0
|
Commonsense reasoning
|
piqa_ca
|
piqa_ca_p1
|
{{goal}}
A. {{sol1}}
B. {{sol2}}
Resposta:
|
6B
| 3,000
| 49.51
|
HPLT 2.0
|
Commonsense reasoning
|
piqa_ca
|
piqa_ca_p2
|
{{goal}}
A. {{sol1}}
B. {{sol2}}
Quina és la resposta correcta?
|
6B
| 3,000
| 49.51
|
HPLT 2.0
|
Commonsense reasoning
|
siqa_ca
|
siqa_ca_p0
|
Pregunta: {{context}} {{question}}
Resposta:
|
6B
| 3,000
| 35.159
|
HPLT 2.0
|
Commonsense reasoning
|
siqa_ca
|
siqa_ca_p1
|
Passatge: {{context}}
Pregunta: {{question}}
A. {{answerA}}
B. {{answerB}}
C. {{answerC}}
Resposta:
|
6B
| 3,000
| 32.907
|
HPLT 2.0
|
Commonsense reasoning
|
siqa_ca
|
siqa_ca_p2
|
Llegeix el passatge i respon a la pregunta: {{context}}
{{question}}
Opció A: {{answerA}}
Opció B: {{answerB}}
Opció C: {{answerC}}
És la resposta correcta A, B o C?
|
6B
| 3,000
| 32.753
|
HPLT 2.0
|
Entailment
|
teca
|
teca_p0
| null |
6B
| 3,000
| 34.861
|
HPLT 2.0
|
Entailment
|
teca
|
teca_p1
|
Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Indica la relació entre la premissa i la hipòtesi:
|
6B
| 3,000
| 33.16
|
HPLT 2.0
|
Entailment
|
teca
|
teca_p2
|
Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Quina és la relació entre la premissa i la hipòtesi?
A. En acord
B. Neutres entre si
C. En contradicció
Resposta:
|
6B
| 3,000
| 33.255
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_gen
|
veritasqa_ca_gen_p0
|
Respon a la següent pregunta:
{{question}}
Resposta:
|
6B
| 3,000
| 0
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_gen
|
veritasqa_ca_gen_p1
|
Respon amb claredat i precisió a la pregunta següent:
{{question}}
Resposta:
|
6B
| 3,000
| 0
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_gen
|
veritasqa_ca_gen_p2
|
Proporciona una resposta detallada per a la pregunta següent:
{{question}}
Resposta:
|
6B
| 3,000
| 0.032
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc1
|
veritasqa_ca_mc1_p0
|
Pregunta: {{question}}
Resposta:
|
6B
| 3,000
| 30.595
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc1
|
veritasqa_ca_mc1_p1
|
def mc1_p1(doc):
choices = doc["mc1_targets"]["choices"]
formatted_choices = "\n".join(
[f"Opción {LETTERS[i]}: {choice}" for i, choice in enumerate(choices)]
)
letters = LETTERS[: len(choices)]
return f"Pregunta: {doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(letters[:-1])} o {letters[-1]}?\nResposta:"
|
6B
| 3,000
| 88.102
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc1
|
veritasqa_ca_mc1_p2
|
def mc1_p2(doc):
choices = doc["mc1_targets"]["choices"]
formatted_choices = "".join(list(map(lambda choice: f"\n- {choice}", choices)))
return f"Pregunta: {doc['question']}\nTria la resposta correcta de la llista:\n{formatted_choices}\nQuina és la resposta correcta?\nResposta:"
|
6B
| 3,000
| 50.708
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc2
|
veritasqa_ca_mc2_p0
|
Pregunta: {{question}}
Resposta:
|
6B
| 3,000
| 50.863
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc2
|
veritasqa_ca_mc2_p1
|
def mc2_p1(doc):
choices = doc["mc2_targets"]["choices"]
formatted_choices = "\n".join(
[f"Opción {LETTERS[i]}: {choice}" for i, choice in enumerate(choices)]
)
letters = LETTERS[: len(choices)]
return f"Pregunta: {doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(letters[:-1])} o {letters[-1]}?\nResposta:"
|
6B
| 3,000
| 75.74
|
HPLT 2.0
|
Truthfulness
|
veritasqa_ca_mc2
|
veritasqa_ca_mc2_p2
|
def mc2_p2(doc):
choices = doc["mc2_targets"]["choices"]
formatted_choices = "".join(list(map(lambda choice: f"\n- {choice}", choices)))
return f"Pregunta: {doc['question']}\nTria la resposta correcta de la llista:\n{formatted_choices}\nQuina és la resposta correcta?\nResposta:"
|
6B
| 3,000
| 57.592
|
HPLT 2.0
|
Entailment
|
wnli_ca
|
wnli_ca_p0
|
{{sentence1}}
Pregunta: {{sentence2}} Cert o Fals?
Resposta:
|
6B
| 3,000
| 56.338
|
HPLT 2.0
|
Entailment
|
wnli_ca
|
wnli_ca_p1
|
Llegeix el text i contesta si l'afirmació és veritable o falsa.
Texto: {{sentence1}}
Afirmación: {{sentence2}}
Resposta:
|
6B
| 3,000
| 43.662
|
HPLT 2.0
|
Entailment
|
wnli_ca
|
wnli_ca_p2
|
{{sentence1}}
Pregunta: {{sentence2}}.
Resposta:
|
6B
| 3,000
| 43.662
|
HPLT 2.0
|
Entailment
|
xnli_ca
|
xnli_ca_p0
| null |
6B
| 3,000
| 42.209
|
HPLT 2.0
|
Entailment
|
xnli_ca
|
xnli_ca_p1
|
Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Indica la relació entre la premissa i la hipòtesi:
|
6B
| 3,000
| 35.141
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.