Addestrare le macchine a imparare di più come fanno gli esseri umani
Le immagini per il download sul sito web dell'ufficio notizie del MIT sono rese disponibili a entità non commerciali, stampa e pubblico in generale sotto una licenza Creative Commons Attribution Non-Commercial No Derivatives. Non è possibile modificare le immagini fornite, se non ritagliandole a misura. Per la riproduzione delle immagini è necessario utilizzare una linea di credito; se non ne viene fornito uno di seguito, accreditare le immagini a "MIT".
Immagine precedente Immagine successiva
Immagina di sederti su una panchina del parco e guardare qualcuno che passeggia. Mentre la scena può cambiare costantemente mentre la persona cammina, il cervello umano può trasformare quell’informazione visiva dinamica in una rappresentazione più stabile nel tempo. Questa capacità, nota come raddrizzamento percettivo, ci aiuta a prevedere la traiettoria della persona che cammina.
A differenza degli esseri umani, i modelli di visione artificiale in genere non mostrano linearità percettiva, quindi imparano a rappresentare le informazioni visive in modo altamente imprevedibile. Ma se i modelli di apprendimento automatico avessero questa capacità, potrebbero consentire loro di stimare meglio come si muoveranno gli oggetti o le persone.
I ricercatori del MIT hanno scoperto che un metodo di formazione specifico può aiutare i modelli di visione artificiale ad apprendere rappresentazioni percettivamente più dirette, come fanno gli esseri umani. La formazione prevede la presentazione di milioni di esempi a un modello di apprendimento automatico in modo che possa apprendere un compito.
I ricercatori hanno scoperto che addestrare modelli di visione artificiale utilizzando una tecnica chiamata training contraddittorio, che li rende meno reattivi ai piccoli errori aggiunti alle immagini, migliora la linearità percettiva dei modelli.
Il team ha anche scoperto che la rettilineità percettiva è influenzata dal compito a cui si addestra un modello. I modelli addestrati a eseguire compiti astratti, come classificare le immagini, apprendono rappresentazioni percettivamente più dirette rispetto a quelli addestrati a eseguire compiti più dettagliati, come assegnare ogni pixel di un'immagine a una categoria.
Ad esempio, i nodi all'interno del modello hanno attivazioni interne che rappresentano "cane", che consentono al modello di rilevare un cane quando vede una qualsiasi immagine di un cane. Le rappresentazioni percettivamente diritte mantengono una rappresentazione del "cane" più stabile quando ci sono piccoli cambiamenti nell'immagine. Questo li rende più robusti.
Acquisendo una migliore comprensione della linearità percettiva nella visione artificiale, i ricercatori sperano di scoprire intuizioni che potrebbero aiutarli a sviluppare modelli che facciano previsioni più accurate. Ad esempio, questa proprietà potrebbe migliorare la sicurezza dei veicoli autonomi che utilizzano modelli di visione artificiale per prevedere le traiettorie di pedoni, ciclisti e altri veicoli.
"Uno dei messaggi da portare a casa qui è che prendere ispirazione dai sistemi biologici, come la visione umana, può sia darti un'idea del perché certe cose funzionano nel modo in cui funzionano, sia anche ispirare idee per migliorare le reti neurali", afferma Vasha DuTell. , un postdoc del MIT e coautore di un articolo che esplora la linearità percettiva nella visione artificiale.
Insieme a DuTell nell'articolo ci sono l'autrice principale Anne Harrington, una studentessa laureata presso il Dipartimento di Ingegneria Elettrica e Informatica (EECS); Ayush Tewari, un postdoc; Mark Hamilton, uno studente laureato; Simon Stent, responsabile della ricerca presso Woven Planet; Ruth Rosenholtz, ricercatrice principale presso il Dipartimento di Scienze del cervello e cognitive e membro del Laboratorio di Informatica e Intelligenza Artificiale (CSAIL); e l'autore senior William T. Freeman, professore di ingegneria elettrica e informatica Thomas e Gerd Perkins e membro del CSAIL. La ricerca è stata presentata alla Conferenza internazionale sulle rappresentazioni dell'apprendimento.
Studiare il raddrizzamento
Dopo aver letto un articolo del 2019 di un team di ricercatori della New York University sulla linearità percettiva negli esseri umani, DuTell, Harrington e i loro colleghi si sono chiesti se quella proprietà potesse essere utile anche nei modelli di visione artificiale.