Il futuro dell’AI passerà attraverso moli di dati più piccole?

News

Come tutti sappiamo, nel recente passato decine e decine di reti neurali sono state addestrate con montagne di dati. Tuttavia, come è noto ai più, queste reti presentano problemi quando devono focalizzarsi su casi limite. Essendo casi limite, infatti, hanno portato un contributo minore nell’addestramento delle stesse reti.

Sono famosi, ad esempio, i fallimenti nel riconoscimento della propria faccia da parte dell’iPhone X di prima mattina o le certezze assolute nel riconoscimento di scimmie, pinguini o chitarre elettriche in immagini del tutto casuali.

Immagini senza significato per l’uomo, ma riconosciute con una probabilità superiore al 99.6% dalle più recenti reti neurali.

Al di là delle implicazioni etiche e di privacy – maggiori sono, infatti, le quantità di dati richieste per addestrare le reti neurali, maggiori sono le implicazioni per tutti noi – ciò che è curioso notare è che le aziende si stiano man mano attrezzando per cercare di addestrare sistemi più precisi su quantità minori di dati.

Tali sistemi, detti top-down, anziché bottom-up, cercano di modellare ciò che l’uomo generalmente fa quando si trova in situazioni di incertezza e con un set di informazioni limitato. È il caso della Siemens che, utilizzando un approccio top-down, ha limitato il set di dati per addestrare le turbine a produrre meno emissioni. Un approccio bottom-up, infatti, avrebbe richiesto almeno un secolo di esecuzione e raccolta di dati, per poterne ottenere a sufficienza per addestrare il sistema.

Interessante anche la direzione verso lo studio del “senso comune” (forse meglio tradotto come “buon senso”).

Il buon senso, che possiamo definire come “l’abilità base di percepire, capire e giudicare ciò che è simile in una popolazione e che, quindi, può essere atteso da tutta la popolazione senza necessità di una ulteriore discussione”, è fondamentale nelle interazioni umane ed è, forse, l’ultimo vero ostacolo che separa le macchine da una vera interazione con l’uomo.

Il DARPA ha stanziato 2 miliardi di dollari per un progetto che va in questa direzione, mentre Microsoft assieme con la
McGill University ha sviluppato un sistema per gestire ambiguità per nulla banali nel linguaggio naturale (problema risolvibile solo con certe caratteristiche di inferenza e conoscenza).

Insomma, come sempre staremo a vedere!

Please follow and like us:
No Comments

Leave a Reply

Your email address will not be published. Required fields are marked *

News
Spiegare l’ouput di una rete neurale? Ci pensa “Activation Atlases” di OpenAI

Riuscire a spiegare perché una rete neurale abbia dato una certa risposta anziché un’altra è uno dei principali problemi di questo genere d’approccio. Finché si tratta di identificare gattini all’interno di fotografie, potrebbe non essere un problema, ma pensate se si trattasse di diagnosticare un tumore oppure di erogare un …

News
UNICT – Machine learning: parte un nuovo corso di studio

Ha preso il via in questi giorni, al dipartimento di Matematica e Informatica dell’Università di Catania, la seconda edizione del corso di studio in Machine Learning tenuto dal prof. Giovanni Maria Farinella e incentrato sulle tecnologie di Deep Learning, oggi considerate alla base dell’Intelligenza Artificiale. Il corso, offerto agli studenti dell’Ateneo, …

News
PathAI: 60 milioni di euro per identificare le malattie gravi

La startup statunitense PathAI ha sviluppato una piattaforma basata su intelligenza artificiale il cui obiettivo è la diagnosi e la classificazione delle malattie gravi. Poco fa hanno chiuso un round (series b) di investimento grazie al supporto dei fondi di venture capital General Atlantic, General Catalyst e altri. Negli ultimi …

Social media & sharing icons powered by UltimatelySocial