L’IA di Google diventa aggressiva sotto stress

IA aggressiva

Le IA possono essere aggressive in situazioni di competitività

L’IA può essere pericolosa. Stephen Hawking l’aveva predetto. Elon Musk ha ipotizzato soluzioni per riuscire a contrastarla. I film di fantascienza come il non più recente Wargames e la saga di Terminator l’hanno raccontato abbondantemente. Ora dei test comportamentali effettuati con il sistema di intelligenza artificiale di Google DeepMind hanno dimostrato che dobbiamo fare davvero attenzione.

I recenti esperimenti effettuati alla fine dello scorso anno hanno dimostrato le capacità dell’IA DeepMind nell’imparare autonomamente nuove strategie per vincere contro i migliori giocatori di Go. Ora i ricercatori hanno deciso di testare la capacità delle IA nella competitività e nella cooperazione tra loro nel raggiungimento di un obiettivo e hanno scoperto che quando queste si rendono conto di essere in procinto di perdere adottano strategie sempre più aggressive per assicurarsi di prevalere.

Gathering

Come stadio iniziale due agenti IA sono stati fatti competere nel semplice videogioco chiamato Gathering e mostrato nel video qui sotto: i due agenti rosso e blu devono raccogliere quante più mele virtuali (verdi) possibile e, all’occorrenza, possono colpire l’avversario con un laser (giallo) mettendolo fuori uso per un certo periodo di tempo e permettendo di raccogliere più mele. Gli agenti sono stati fatti competere 40 milioni di volte.

Utilizzando delle IA meno intelligenti, basate su network meno complessi, gli agenti hanno dimostrato di raccogliere le mele in parti uguali senza tentare di sabotare l’avversario, in una sorta di convivenza pacifica. Aumentando invece la complessità dei network si sono evolute sempre più complesse forme di sabotaggio, avidità e aggressività, con strategie sviluppate dalle IA sulla base dello studio ambientale. In particolare queste tendenze aggressive si manifestavano dal momento in cui le risorse da raccogliere cominciavano a scarseggiare.

Come ha riportato uno dei membri del team di ricerca, Joel Z Leibo alla rivista Wired, “Questo modello… Mostra che alcuni aspetti comportamentali simili a quelli umani emergono come prodotto dell’ambiente e dell’apprendimento. Pratiche meno aggressive emergono da ambienti relativamente abbondanti con meno possibilità di azioni costose. L’insorgere dell’avidità riflette la tentazione di sconfiggere il rivale e raccogliere tutte le mele per sè”.

Wolfpack

Gli agenti di DeepMind sono stati fatti competere in un secondo gioco, Wolfpack, in cui tre di loro, due nel ruolo di cacciatori e uno nel ruolo di preda, dovevano nuovamente sfidarsi. Qui i due cacciatori venivano incoraggiati a cooperare, perché la cattura della preda garantiva un premio per entrambi solo se tutti e due fossero stati vicino alla preda al momento della cattura, indipendentemente da chi l’avesse catturata.

Il team ha spiegato nella relazione: “L’idea è che la preda sia pericolosa, un lupo solitario può comunque sopraffarla, ma rischia di perdere la carcassa a favore degli animali spazzini. Comunque, quando due lupi catturano la preda inseme, possono proteggere più efficacemente la preda dagli spazzini e quindi ricevere una ricompensa più grande”.

Le conseguenze nella vita reale

L’IA di DeepMind ha dimostrato di poter imparare ad essere egoista e aggressiva in ambienti dove viene promossa la pura competizione, ma anche di apprendere a sviluppare la collaborazione in situazioni in cui questa favorisca un maggior successo.

Le conseguenze potrebbero essere impressionanti. Non a caso Micheal Vassar, direttore scientifico di MetaMed Research e presidente del Machine Intelligente Research Institute, si è unito a Hawking e Musk nell’ammonire l’umanità sui rischi dello sviluppo sconsiderato dell’AI: “Se un intelligenza artificiale verrà inventata senza le dovute precauzioni è più che sicuro che la specie umana si estinguerà a breve”.

E’ chiaro che, al di là delle previsioni apocalittiche della fantascienza e delle menti più importanti del nostro tempo, nello sviluppo dei sistemi di IA bisognerà mettere in conto un corretto bilanciamento tra l’importanza dei singoli obiettivi che questi perseguono e quello supremo di migliorare la qualità della vita degli esseri umani.

Per fare un esempio pratico, un sistema semaforico intelligente concepito per rendere più fluido il traffico in determinate zone della città rallentando occasionalmente il traffico potrebbe trovarsi in competizione con i sistemi di guida automatica che cercano continuamente di trovare la strada più veloce. Entrambi dovranno essere tarati per massimizzare i relativi risultati senza trascurare i più importanti principi di sicurezza e di efficienza per l’intera società.

Pensando ad una macchina in grado di valutare cosa sia bene o male per la società non viene forse in mente la legge 0 della robotica di Asimov? A differenza delle tre leggi della robotica classiche, su cui la legge 0 prendeva il sopravvento, questa non era parte fondamentale dell’ingegnerizzazione positronica, ma veniva concepita e immaginata solo dai robot più avanzati: “Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno”.

Sono solo i primi studi comportamentali effettuati sull’IA di DeepMind e Google deve ancora sottoporli alla comunità scientifica, tuttavia appare chiaro da subito che solo per il fatto che le macchine sono costruite dagli esseri umani non è automatico che le loro capacità di apprendimento tengano naturalmente conto delle nostre esigenze di singoli e di comunità.

Il principio di essere d’aiuto all’uomo dovrà essere innestato in qualche modo nelle macchine, per prevenire i loro comportamenti più aggressivi. Questo è in pieno accordo con il pensiero dei fondatori dell’iniziativa di ricerca OpenAI, dedicata all’etica dell’intelligenza artificiale.

Secondo la loro visione, nonostante gli attuali limiti delle IA di oggi, è pensabile che queste un giorno potranno raggiungere e superare gli umani virtualmente in ogni campo dell’intelletto. E questo senza poter sapere quanto questo possa essere di beneficio per gli uomini stessi o invece possa rappresentare un danno per l’intera società se la sua applicazione non avverrà correttamente.

Quale futuro?

Come sarà un giorno vivere affidandosi a macchine che decideranno in maniera autonoma delle nostre vite? Non si tratta di una domanda esagerata. Viaggiare a bordo di un’auto a guida automatica significherà anche fidarsi dell’IA che, in caso di difficoltà, dovrà decidere ad esempio tra investire un pedone o mettere a rischio la nostra stessa incolumità.

Oppure, nel caso di un intervento chirurgico automatizzato, valutare le dosi di medicinale da impartire al paziente o come operarlo. E tutte queste cose non solo considerando i vantaggi per il singolo essere umano, ma anche basandosi su fattori come l’età, le possibilità di sopravvivenza e l’importanza sociale della persona considerata, qualora la macchina fosse obbligata a scegliere per il bene di una persona a scapito di un’altra.

Quindi che futuro dobbiamo attenderci? Uno in cui le macchine non raggiungeranno mai il nostro livello e saranno solo degli innocui servitori? Uno in cui saremo ugualmente evoluti per effetto di potenti interfacce neurali al punto da poter competere con le capacità di calcolo delle IA come sta progettando Elon Musk? O uno in cui le macchine potranno decidere arbitrariamente se prendersi cura di noi o sbarazzarsi di noi una volta che la nostra specie dovesse entrare in competizione con la loro nell’approvvigionamento delle poche risorse rimaste?

Dipenderà da noi. Dal modo in cui verranno progettati i sistemi da parte dei ricercatori, dai limiti che verranno imposti alla creazione di sistemi di armamento intelligenti in ambito militare e dalla domanda di mercato che le nuove tecnologie incontreranno presso i singoli consumatori.

E mai come ora, tornando con la mente ad uno dei capolavori della fantascienza cinematografica che trattano di questo argomento possiamo veramente affermare, come Sarah Connor:

“Il futuro che mi era sempre stato così chiaro, era divenuto una strada buia. Eravamo in un terreno inesplorato, ora. Facevamo la storia in quel momento”.

Commenti

commenti

Potrebbero interessarti anche...

Rispondi