Rispondi alle domande presenti nel file
Creato il: 29 maggio 2025
Risposto usando GPT-4o Draw da Chat01
Creato il: 29 maggio 2025
Risposto usando GPT-4o Draw da Chat01
{"prompt":"Answering questions on a computer screen with a document and pen nearby","size":"500x300"}
Here is the image based on your request.
Di seguito trovi risposte sintetiche ma complete – in italiano – a tutti i quesiti elencati nel PDF. Ho mantenuto la stessa struttura per facilitare lo studio.
Quesito | Risposta |
---|---|
Scelte di implementazione di progetto | In un progetto di Deep Learning le scelte chiave riguardano: architettura generale (modello, data-pipeline, training loop), gestione dell’hardware (GPU/TPU), strategia di logging/monitoraggio (TensorBoard, Weights & Biases), protocolli di versionamento (Git + DVC), criteri di validazione e di early-stopping, oltre a definire chiaramente metriche e obiettivi di business. |
Dove trovare nel codice una funzione “teorica” | Normalmente si cerca la corrispondenza teoria ↔ codice partendo dal nome simbolico: es. la formula teorica softmax(z)=exp(z)/∑exp(z) diventa la funzione torch.nn.Softmax . Nella code-base puoi: 1) fare un grep del nome teorico, 2) seguire i docstring che citano la definizione matematica, 3) consultare i test unitari che spesso linkano alla sezione di teoria. |
Differenza RNN vs LSTM | RNN ha una singola cella con stato h_t ; soffre di vanishing/exploding gradients su sequenze lunghe. LSTM introduce porte (input , forget , output ) e una cell-state c_t che trasporta informazioni a lungo termine, mitigando il problema dei gradienti e migliorando la capacità di memorizzazione. |
Estrarre le prime due colonne di una matrice 3 × 3 | matrix[:, :2] (NumPy slice). |
Quesito | Risposta breve |
---|---|
Residual Connection | |
Supervised vs Unsupervised | Supervised: dati etichettati ; obiettivo minimizzare la perdita fra predizione e . Unsupervised: solo ; il modello scopre struttura latente (cluster, densità, rappresentazioni). |
Overfitting | Il modello impara il rumore del training set e generalizza male su dati non visti. |
Convoluzione (DL) | Operatore che applica un kernel localmente producendo feature map; permette condivisione di pesi e estrazione di pattern spaziali (traslazione-equivarianza). |
Perché il validation set | Misura la generalizzazione durante l’addestramento, guida early-stopping e selezione di iperparametri. |
Regression vs Classification | Regression: target continuo; metriche MSE/MAE. Classification: target discreto; metriche accuracy, F1, CE-loss. |
Binary Cross-Entropy | |
ReLU in codice | torch.nn.functional.relu(x) oppure np.maximum(0, x) . |
Buono studio!