Questa pagina contiene note, errata corrige e informazioni aggiuntive per i miei libri tecnici. Quasi tutti gli errori e i refusi sono stati integrati nella seconda edizione dei libri.
Machine Learning Algorithms (prima edizione)
Pagina 25:
Il numero corretto di campioni erroneamente classificati nella figura è rispettivamente di 3, 14 e 24.
Pagina 59:
La matrice di trasformazione W per la PCA deve essere trasposta:
Pagina 97:
Come spiegato nei capitoli precedenti, la normalizzazione del set di dati è quasi sempre una buona pratica. In questo modo, diventa centrato sullo zero e, nell’espressione lineare, è possibile evitare l’uso del bias. Altrimenti, è necessario riscrivere l’espressione come:
Sia w che b sono parametri da apprendere.
Pagina 100:
La parte sinistra della formula dell’entropia incrociata è sbagliata perché i suoi argomenti sono le due distribuzioni. Quello giusto è:
Pagina 103:
Addendum: nella discesa del gradiente “stocastica”, la dimensione del batch è spesso impostata pari a 1. Significa che viene eseguito un aggiornamento del peso dopo la presentazione di ogni campione. Tuttavia, ci sono molti articoli e libri in cui l’attributo “stocastico” è riferito a ogni dimensione di mini-batch.
Pagina 219:
Il dendrogramma deve essere custato a una soglia leggermente inferiore a 30.
Pagine 238 e 268:
La decomposizione del valore singolare è intesa senza il calcolo di matrici complete e quindi è limitata ai valori singolari e ai vettori t principali. La formula corretta è:
Mastering Machine Learning Algorithms (Prima edizione)
Pagina 32:
La formula alla fine della pagina si basa su argmin, poiché si tratta di una minimizzazione:
Pagina 92:
Il frammento di codice contenente il ciclo per la propagazione delle etichette è:
while np.linalg.norm(Yt - Y_prev, ord=1) > tolerance: P = np.dot(D_rbf_inv, W_rbf) Y_prev = Yt.copy() Yt = np.dot(P, Yt) Yt[0:nb_samples - nb_unlabeled] = Y[0:nb_samples - nb_unlabeled]
Mastering Machine Learning Algorithms (seconda edizione)
Pagina 9:
L’insieme della prima riga è: