# Quiz la final de capitol [[quiz-la-final-de-capitol]]

### 1. Care este ordinea pipeline-ului de modelare a limbajului?

### 2. Câte dimensiuni are tensorul generat de modelul Transformer și care sunt acestea?

### 3. Care dintre următoarele este un exemplu de tokenizare a cuvintelor secundare?

### 4. Ce este un model head?

{#if fw === 'pt'}
### 5. Ce este un AutoModel?

AutoTrain?"
		},
		{
			text: "Un obiect care returnează arhitectura corespunzătoare bazată pe checkpoint.",
			explain: "Exact: AutoModel are nevoie doar să știe checkpoint-ul din care să se inițializeze pentru a returna arhitectura corectă.",
			correct: true
		},
		{
			text: "Un model care detectează automat limba utilizată pentru intrările sale pentru a încărca ponderile corecte",
			explain: "Incorect; deși unele checkpoint-uri și modele pot gestiona mai multe limbi, nu există instrumente integrate pentru selectarea automată a checkpoint-ului în funcție de limbă. Ar trebui să consultați Model Hub pentru a găsi cel mai bun checkpoint pentru sarcina dumneavoastră!"
		} 
	]}
/>

{:else}
### 5. Ce este un TFAutoModel?

AutoTrain?"
		},
		{
			text: "Un obiect care returnează arhitectura corespunzătoare bazată pe checkpoint",
			explain: "Exact: TFAutoModel are nevoie doar să știe checkpoint-ul din care să se inițializeze pentru a returna arhitectura corectă.",
			correct: true
		},
		{
			text: "Un model care detectează automat limba utilizată pentru intrările sale pentru a încărca ponderile corecte",
			explain: "Incorect; deși unele checkpoint-uri și modele pot gestiona mai multe limbi, nu există instrumente integrate pentru selectarea automată a checkpoint-ului în funcție de limbă. Ar trebui să consultați Model Hub pentru a găsi cel mai bun checkpoint pentru sarcina dumneavoastră!"
		} 
	]}
/>

{/if}

### 6. Care sunt tehnicile de care trebuie să țineți cont atunci când grupați secvențe de diferite lungimi?

### 7. Care este scopul aplicării unei funcții SoftMax asupra logit-urilor produse de un model de clasificare a secvențelor?

### 8. În jurul cărei metode se concentrează cea mai mare parte a API-ului tokenizer?

encode, deoarece poate codifica textul în ID-uri și ID-urile în predicții",
			explain: "Greșit! Deși metoda encode există pe tokenizers, ea nu există pe modele."
		},
		{
			text: "Apelarea directă a obiectului tokenizer.",
			explain: "Exact! Metoda __call__ a tokenizatorului este foarte puternică și poate gestiona aproape orice. Este și metoda folosită pentru a obține predicții de la un model.",
			correct: true
		},
		{
			text: "pad",
			explain: "Greșit! Padding-ul este foarte util, dar este doar o parte a API-ului tokenizer."
		},
		{
			text: "tokenize",
			explain: "Metoda tokenize este, fără îndoială, una dintre cele mai utile, dar nu reprezintă nucleul API-ului tokenizer."
		}
	]}
/>

### 9. Ce conține variabila `result` în acest exemplu de cod?

```py
from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
result = tokenizer.tokenize("Hello!")
```

__call__ sau convert_tokens_to_ids!"
		},
		{
			text: "Un șir care conține toate token-urile",
			explain: "Nu ar fi optim, deoarece scopul este de a separa șirul inițial în mai multe token-uri."
		}
	]}
/>

{#if fw === 'pt'}
### 10. Este ceva greșit în următorul cod?

```py
from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
model = AutoModel.from_pretrained("gpt2")

encoded = tokenizer("Hey!", return_tensors="pt")
result = model(**encoded)
```

{:else}
### 10. Este ceva greșit în următorul cod?

```py
from transformers import AutoTokenizer, TFAutoModel

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
model = TFAutoModel.from_pretrained("gpt2")

encoded = tokenizer("Hey!", return_tensors="pt")
result = model(**encoded)
```

{/if}

