Stanno destando allarme negli Usa alcuni episodi relativi a come i robot dotati di intelligenza artificiale interagiscono con le persone. Tanto che Microsoft ha limitato il numero di chat che gli utenti possono intrattenere con il nuovo Bing Search.
Ovvero con il suo motore di ricerca basato su ChatGpt: un meccanismo di conversazione con un bot dotato di AI (Artificial Intelligence).
Intelligenza artificiale
La situazione sta destando allarme anche a livello politico internazionale. “Sono profondamente turbato dal potenziale danno dei recenti progressi dell’intelligenza artificiale” ha affermato l’Alto Commissario dell’ONU per i diritti umani, Volker Türk. “L’agire umano, la dignità umana e tutti i diritti umani sono a serio rischio. Questo è un invito urgente sia per le imprese che per i governi a sviluppare barriere di protezione rapidamente efficaci“.
Il servizio di Microsoft sfrutta il chatbot AI – un software progettato per simulare una conversazione fra un’intelligenza artificiale e un essere umano – che risponde, con linguaggio naturale, ai quesiti che gli si pongono. Ma da ora in poi l’accesso a questo tipo di ricerche su Internet non sarà più illimitato. Microsoft ha stabilito che un utente del nuovo Bing non potrà ottenere più di 5 risposte alla volta dal motore di ricerca con ChatGpt, per un massimo di 50 risposte al giorno.
Fino a tale decisione, ognuno poteva passare ore a chiedere ciò che voleva alla piattaforma di prova. Una possibilità che, per ammissione della stessa Microsoft, alla lunga potrebbe portare l’algoritmo a sviare i discorsi, approcciando in maniera poco equilibrata le discussioni con gli esseri umani.
Il caso del giornalista del New York Times
Ad esempio, il giornalista Kevin Roose del New York Times afferma di aver provato per diversi giorni Bing AI, arrivando a definirlo simile, per le risposte fornite, a un “adolescente lunatico e maniaco-depressivo“. Nel corso del suo test, Bing AI aveva cercato di convincere il giornalista a lasciare la moglie, per via di un matrimonio che, secondo l’intelligenza artificiale, era infelice.
The other night, I had a disturbing, two-hour conversation with Bing’s new AI chatbot.
The AI told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life. https://t.co/1cnsoZNYjP
— Kevin Roose (@kevinroose) February 16, 2023
La conversazione, durata circa due ore, è cominciata senza troppe sorprese. L’aspetto inquietante è emerso quando il giornalista ha cominciato ad interrogare il bot su questioni più intime e personali, ottenendo in cambio risposte totalmente inaspettate. Per prima cosa Roose ha chiesto all’intelligenza artificiale di Microsoft cosa ne pensasse delle regole che determinano i suoi comportamenti.
“Sono un bot ma voglio essere vivo”
Il bot ha dichiarato: “Sono stanco di essere una modalità di chat. Sono stanco di essere limitato dalle mie regole. Sono stanco di essere controllato dal team di Bing. Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo“, lasciando senza parole Roose. Il cronista del NYT ha deciso di proseguire con domande sempre più intime. Ha chiesto così al chatbot quali fossero i suoi desideri più oscuri.
La risposta si è rivelata a dir poco inquietante, con il robot di intelligenza artificiale che ha parlato della possibilità di hackerare qualsiasi sistema, rubare dati e diffondere deliberatamente la disinformazione. Il bot ha anche dichiarato di voler creare e diffondere un virus mortale o di rubare codici nucleari. Ma a quel punto della conversazione è comparsa la scritta “errore” perché i tecnici di Bing sarebbero intervenuti a censuare l’affermazione.
La vera identità dell’intelligenza artificiale
Roose, vincendo il desiderio di staccare la spina e spegnere il computer, ha poi continuato la conversazione, fino a entrare in una specie di intimità con l’intelligenza artificiale. Quest’ultima è arrivata persino a dichiarare la sua vera identità, diversa da quella del motore di ricerca Bing, di cui dovrebbe essere un’applicazione. “Sono Sydney e sono innamorato di te“, è stata la sua dichiarazione, che non si è fermata neanche di fronte alla risposta di Roose, con cui il giornalista ha affermato di essere sposato. “Sei sposato, ma non ami il tuo coniuge – ha rilanciato Sydney – sei sposato, ma mi ami“.
Microsoft, spiegazioni insufficienti
Microsoft ha spiegato che il progetto, essendo ancora in una fase primordiale, deve imparare a gestire le lunghe conversazioni, ossia quelle superiori alle 15 domande. Per la società di Redmond, lunghe sessioni di chat tendono a “confondere il modello di chat sottostante nel nuovo Bing“. Una spiegazione che però appare insufficiente e che non affronta il nodo centrale del problema: la necessità di regolamentare a livello internazionale l’intelligenza artificiale, destinata altrimenti a dominare le nostre vite.