Berliner Tageblatt - Allarme del Mit sulle IA che hanno imparato a bluffare

Allarme del Mit sulle IA che hanno imparato a bluffare
Allarme del Mit sulle IA che hanno imparato a bluffare

Allarme del Mit sulle IA che hanno imparato a bluffare

In giochi e chat, tanti esempi di IA che mentono per vincere

Dimensione del testo:

A gennaio, il Massachusetts institute of technology aveva sottolineato la difficoltà dell'intelligenza artificiale di sostituirsi all'uomo, a causa degli alti costi per lo sviluppo e la gestione degli algoritmi. Adesso, l'istituto diffonde i dati di una ricerca, pubblicata sulla rivista Patterns, che evidenzia come la tecnologia sia andata talmente avanti da aver creato IA che possono comportarsi proprio come gli esseri umani, bluffando per raggiungere i loro obiettivi. Il report ha preso in esame l'uso dell'IA in contesti specifici, come i giochi online. Lo ha fatto studiando Cicero, un'intelligenza artificiale presentata nel 2022 da Meta e in grado di sconfiggere gli umani in una versione online di Diplomacy, un popolare gioco di strategia militare in cui i giocatori negoziano alleanze per competere per il controllo dell'Europa. I ricercatori di Meta hanno affermato di aver addestrato Cicero su un sottoinsieme 'veritiero' del suo set di dati, affinché l'IA si comportasse onestamente. Ma i ricercatori del Mit sostengono che l'IA ha agito diversamente, bluffando e usando l'inganno in maniera premeditata, per vincere le sue partite. Peter Park, autore della ricerca del Mit, ha dichiarato in una nota ufficiale: "Man mano che le capacità ingannevoli dei sistemi di intelligenza artificiale diventano più avanzate, i pericoli che rappresentano per la società diventeranno sempre più seri". Ma non solo Meta, lo studio ha analizzato anche AlphaStar, un'intelligenza artificiale sviluppata da Google DeepMind per il videogioco StarCraft II. L'IA, secondo gli esperti, è diventata così abile nell'effettuare mosse ingannevoli da sconfiggere il 99,8% dei giocatori umani. Infine ChatGpt: Park e soci hanno 'indotto' il famoso chatbot a comportarsi da insider trading per vendere azioni di borsa, tirando in ballo andamenti del mercato e valori inesatti. Per il Mit, una soluzione al problema può arrivare dai regolamenti internazionali e dagli organi atti a monitorare ogni software di IA pensato per il pubblico.

Y.Bouchard--BTB