Jun 09, 2023
La prossima grande novità: capire come funziona effettivamente il machine learning
25 agosto 2023 Il dottor David Frazier è professore associato di econometria e statistica aziendale presso la Monash University. Molte decisioni che prendi nel mondo moderno e quasi ogni singola azione che fai
25 agosto 2023
Il dottor David Frazier è professore associato di econometria e statistica aziendale presso la Monash University.
Mqualsiasi decisione tu prendanel mondo moderno, e quasi ogni singola azione intrapresa, viene essenzialmente registrata e, ad un certo punto, alimentata attraverso un modello.
Un ottimo esempio è il tuo smartphone. Dal momento in cui interagisci con esso al mattino, ogni interazione successiva viene catalogata. Ad esempio, la tua posizione viene continuamente trasmessa a un grande modello che fondamentalmente cerca di decidere: "Come possiamo utilizzare al meglio questi dati?"
Un uso comune di questi dati, la tua posizione, potrebbe essere quello di decidere il modo migliore per lavorare su Google Maps, oppure potrebbe essere utilizzato per assicurarti che gli annunci che vedi siano mirati al luogo in cui ti trovi attualmente. In entrambi i casi, i tuoi dati vengono utilizzati come input per un modello enorme, che è troppo grande per essere scritto.
Questo enorme modello è in realtà solo una sequenza di ciò che chiamiamo “approssimazioni di funzioni” – una sequenza di modi di calcolare e muoversi attraverso uno spazio dati. Se provi a guardare quell'oggetto statisticamente, nel suo insieme, non puoi farlo. È troppo difficile, è semplicemente troppo grande. Quindi, come statistici, utilizziamo metodi che non richiedono di scrivere un modello fisico. Creiamo modelli “impliciti”.
La mia ricerca riguarda la misurazione dell’accuratezza di questi modelli impliciti. Come puoi immaginare, se avessi questa grande struttura in funzione in background, saresti piuttosto preoccupato se le cose che ne vengono fuori non hanno senso. Ad esempio, quando Google Maps venne lanciato circa 15 anni fa, c'erano persone che guidavano nei fiumi perché i modelli utilizzati per fornire indicazioni stradali in tempo reale non erano sufficientemente accurati.
I tuoi dati vengono utilizzati come input per un modello enorme.
Pensiamo alle auto a guida autonoma. Il modello su cui operano è in realtà relativamente semplice: una sequenza di decisioni nel tempo. Ma quando si percorre l’intero percorso percorso dall’auto, diventa una sequenza molto complicata di decisioni che diventano presto troppo numerose per essere enumerate.
Come analizziamo allora i risultati o le decisioni che quel modello sta prendendo? Il modo in cui lo facciamo è attraverso la “probabilità bayesiana”.
Qualsiasi modello è una sequenza di input e output. Gli input potrebbero essere caratteristiche dei dati che stiamo cercando di analizzare e cose di cui siamo incerti poiché sono essenzialmente casuali/non osservabili, che chiamiamo "incognite". Il nostro obiettivo è vedere come gli aspetti su cui siamo incerti influiscono sull'output del modello.
È qui che utilizziamo il linguaggio della probabilità. Ed è qui che entra in gioco Bayes. Nell’analisi statistica convenzionale, le decisioni vengono prese in base al valore di queste “incognite”. Ma ciò che ci interessa davvero è l’impatto di queste incognite sulla nostra produzione.
Quindi, ciò che vorremmo veramente ottenere è il contrario, ovvero come le nostre decisioni siano influenzate da queste incognite. È l'inverso del modo in cui normalmente pensiamo alla probabilità.
Questa è la probabilità inversa.
Il reverendo Thomas Bayes (1702-1761) era un personaggio molto interessante che morì relativamente giovane e, ancor prima di pubblicare adeguatamente i suoi risultati iniziali, scatenò gran parte di questa riflessione sulla probabilità inversa (i suoi risultati furono pubblicati postumi dal suo amico e mecenate Richard Price ).
Più o meno nello stesso periodo Pierre-Simon Laplace concepì l’idea della probabilità inversa, sebbene completamente indipendenti l’una dall’altra: due idee simili provenienti da approcci molto diversi. Ma nessuno dei due riuscì effettivamente a capire come calcolare le probabilità che desiderava perché generalmente dipendono da integrali che non sapevamo come calcolare finché non inventammo i computer negli anni '50.
Come pensiamo all'incertezza di cose come decisioni future o altre incognite? Nell'apprendimento automatico e nelle statistiche, generalmente non possiamo misurare le cose esattamente (c'è sempre un elemento di casualità), quindi possiamo misurare solo un'approssimazione. Quantificare l'incertezza di tale approssimazione, in un senso probabilistico significativo, è ciò che trovo affascinante e ciò a cui passo molto tempo a pensare.

