“l focus della nostra ricerca era sviluppare un’intelligenza artificiale che sapesse cooperare con le persone, così come fanno le persone tra loro”, spiega a Repubblica l’autore dell’analisi, Jacob Crandall. “Scoprire che collaborano meglio di noi è stato un curioso risultato addizionale”. Gli studiosi hanno testato 25 differenti algoritmi di apprendimento automatico, che venivano incoraggiati ogni volta che compivano una mossa collaborativa, e condotto i loro esperimenti coinvolgendo tre team: uno composto da due persone, uno da due computer, e uno da un computer e una persona”.
{}

Quando i giocatori non hanno avuto la possibilità di mandarsi dei messaggi tra di loro, sia il team uomo-uomo che quello uomo-macchina hanno collaborato il 30% delle volte, quello macchina-macchina un po’ di più: il 60%. Poi, gli studiosi hanno dato ai partecipanti un’opportunità di solito non concessa: quella di comunicare stabilendo, quindi, una qualche forma relazione. A questo punto la collaborazione è raddoppiata allo stesso modo per il team uomo-uomo e uomo-macchina arrivando a toccare il 60%. Invece, un po’ a sorpresa, la percentuale di cooperazione nel gruppo macchina-macchina è balzata al 90%. “Non solo, una volta che la collaborazione è stata stabilita, il nostro algoritmo tendeva a continuare a collaborare. Mentre circa la metà delle persone ha ‘tradito’ almeno una volta. In questo senso, l’intelligenza artificiale ha imparato a essere più leale dell’essere umano”, conclude Crandall.

Non è la prima volta che un ‘cervello fatto di chip’ si dimostra capace di fare squadra così come di essere ferocemente competitivo quando serve. È il caso di DeepMind, di proprietà di Google, che ha sviluppato un’intelligenza artificiale dimostratasi capace di diventare “aggressiva” nel momento in cui la sua vittoria al gioco veniva messa a rischio. “In maniera simile a noi, sia che si tratti di attività pratiche come guidare che di attività sociali, gli algoritmi di apprendimento automatico imparano in due modi”, commenta Paola Velardi, docente di machine learning nel dipartimento di Informatica della Sapienza. “O perché qualcuno gli insegna a svolgere un certo compito, o per tentativi e quindi da errori e successi”.

E il fatto che abbiano imparato a collaborare meglio di noi non è tanto sorprendente, dato che “vengono programmati con un obiettivo specifico, nel caso di Crandall avere dei comportamenti collaborativi, appunto. Gli umani sono invece infinitamente più complessi. Nella interazione sociale hanno molti più obiettivi: ad esempio, non sono affatto neutrali rispetto ai membri del team con cui dovrebbero collaborare. E percepiscono molti più segnali e sfumature, oltre a quelli verbali, come l’espressione di chi ci sta di fronte o il tono della voce”.

C’è, poi, un ulteriore aspetto da considerare. Come suggerisce Nicola Gatti, professore del politecnico di Milano, la macchina può persino agevolare la cooperazione tra umani. “Ci sono molti esempi in teoria dei giochi in cui un dispositivo, detto di correlazione, può essere utilizzato per sincronizzare/coordinare le azioni dei giocatori permettendo loro di guadagnare di più rispetto al caso senza dispositivo”, dice. Un esempio pratico: immaginate le volanti della polizia di Roma o Milano che intervengono a fronte di un qualche allarme. “Un dispositivo di correlazione potrebbe dire loro esattamente come coordinarsi per fermare un malvivente o intervenire nel modo migliore – prosegue Gatti -. Determinare la miglior correlazione non è una cosa semplice dal punto di vista computazionale, la letteratura sta studiando come renderla possibile”.

LEGGI Creata una sinapsi artificiale: sa apprendere da sola

Potrebbe rappresentare un pericolo dati gli sviluppi nel campo? Certo, è difficile prevedere il futuro – annota Francesco Scarcello, professore d’informatica dell’Università della Calabria – ma di sicuro “queste tecnologie sono molto potenti e Big G ci ha abituato a vedere risultati straordinari perché nei loro laboratori hanno una quantità esorbitante di dati, grazie a noi che glieli abbiamo forniti, e su cui riescono ad addestrare gli algoritmi di apprendimento automatico. Se si alleassero contro di noi in un futuro fantascientifico, collaborerebbero per portare a casa il miglior risultato possibile”.

Quel che bisogna capire a questo punto, conclude Scarcello, è: come reagirà l’uomo? “Potrebbe sviluppare una macchina – sostiene – in grado di mettere in crisi la fiducia di questi agenti che cooperano tra di loro solo perché si fidano l’uno dell’altro”. Non molto diversamente dagli esseri umani, in fin dei conti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *