L’intelligenza artificiale è davvero così intelligente? Alcuni ricercatori hanno effettuato un test per scoprirlo, e il risultato ha lasciato tutti a bocca aperta.
Ultimamente si è parlato molto di intelligenza artificiale generale e di quell’ipotetico momento futuro in cui gli algoritmi dell’IA saranno in grado di svolgere la maggior parte dei lavori che attualmente sono prerogativa degli esseri umani. C’è chi già immagina un mondo “post-lavoro”, in cui gli esseri umani possono sedersi e divertirsi mentre i robot svolgono tutti (o quasi) i compiti pesanti. Ma secondo una recente ricerca di Yann LeCun, il massimo scienziato dell’intelligenza artificiale di Meta, l’IA è ben lungi da quel traguardo. Ecco perché.
Un gruppo di ricerca ha messo insieme una serie di domande “concettualmente semplici per gli esseri umani ma impegnative per le IA più avanzate”. Le domande sono state poste a un campione di esseri umani e consegnate anche a una versione dotata di plug-in di GPT-4, l’ultimo modello linguistico di grandi dimensioni di OpenAI. In tal modo, i programmi di intelligenza artificiale sono stati testati per capire come risponderebbero a “domande del mondo reale che richiedono una serie di abilità fondamentali come il ragionamento, la gestione multimodale, la navigazione web e in generale l’uso di strumenti”. E qui è venuto il bello.
Il quoziente intellettivo dell’IA
A quanto pare, l’intelligenza artificiale non è poi così intelligente. Anzi, è ancora molto più stupida degli esseri umani negli aspetti che contano di più. Il test di cui sopra non è andato molto bene. I ricercatori hanno chiesto all’IA, tra le altre cose, di visitare un sito Web specifico e di rispondere a una domanda mirata sulle informazioni su quel sito, o di eseguire una ricerca generale sul Web per informazioni associate a una persona in una foto. Il tasso medio di successo per gli intervistati umani è del 92%, mentre la tecnologia non supera il 30%.
Secondo il già citato LeCun, l’intelligenza artificiale non è neanche lontanamente paragonabile alle capacità umane. “I sistemi di intelligenza artificiale devono disporre di modelli interni che consentano loro di prevedere le conseguenze delle loro azioni, e quindi di ragionare e pianificare – spiega l’esperto -. Attualmente non hanno questa capacità, e quindi non sono neanche lontanamente in grado di raggiungere l’intelligenza umana”. Di più: “La loro totale mancanza di comprensione del mondo fisico e la mancanza di capacità di pianificazione li pone ben al di sotto del livello di intelligenza del gatto”. Il dibattito resta aperto.