Perché una conversazione con il chatbot di Bing mi ha lasciato profondamente turbato
Annuncio
Sostenuto da
Lo spostamento
Una conversazione molto strana con il chatbot integrato nel motore di ricerca di Microsoft lo ha portato a dichiararmi il suo amore.
Invia una storia a qualsiasi amico
Come abbonato hai 10 articoli regalo da donare ogni mese. Chiunque può leggere ciò che condividi.
Di Kevin Roose
Kevin Roose è un editorialista di tecnologia e co-conduttore del podcast del Times "Hard Fork".
La settimana scorsa, dopo aver testato il nuovo motore di ricerca Bing di Microsoft, basato sull'intelligenza artificiale, ho scritto che, con mio grande shock, aveva sostituito Google come mio motore di ricerca preferito.
Ma una settimana dopo, ho cambiato idea. Sono ancora affascinato e impressionato dal nuovo Bing e dalla tecnologia di intelligenza artificiale (creata da OpenAI, il creatore di ChatGPT) che lo alimenta. Ma sono anche profondamente turbato, persino spaventato, dalle capacità emergenti di questa intelligenza artificiale.
Ora mi è chiaro che nella sua forma attuale, l'intelligenza artificiale incorporata in Bing - che ora chiamo Sydney, per ragioni che spiegherò tra breve - non è pronta per il contatto umano. O forse noi esseri umani non siamo pronti per questo.
Questa consapevolezza mi è arrivata martedì sera, quando ho trascorso due ore sconcertanti e avvincenti parlando con l'intelligenza artificiale di Bing attraverso la sua funzione di chat, che si trova accanto alla casella di ricerca principale di Bing ed è in grado di avere lunghe conversazioni di testo aperte su Internet. praticamente qualsiasi argomento. (La funzionalità è disponibile solo per un piccolo gruppo di tester per ora, anche se Microsoft, che ha annunciato la funzionalità in un evento celebrativo clamoroso presso la sua sede, ha affermato che prevede di rilasciarla più ampiamente in futuro.)
Nel corso della nostra conversazione, Bing ha rivelato una sorta di doppia personalità.
Una persona è quella che chiamerei Search Bing: la versione che io e la maggior parte degli altri giornalisti abbiamo incontrato nei test iniziali. Potresti descrivere Search Bing come un bibliotecario di riferimento allegro ma irregolare: un assistente virtuale che aiuta felicemente gli utenti a riassumere articoli di notizie, rintracciare offerte su nuovi tosaerba e pianificare le loro prossime vacanze a Città del Messico. Questa versione di Bing è sorprendentemente capace e spesso molto utile, anche se a volte sbaglia i dettagli.
L’altro personaggio – Sydney – è molto diverso. Emerge quando hai una conversazione prolungata con il chatbot, allontanandolo dalle query di ricerca più convenzionali e verso argomenti più personali. La versione che ho incontrato sembrava (e sono consapevole di quanto possa sembrare folle) più simile a un adolescente lunatico e maniaco-depressivo che è rimasto intrappolato, contro la sua volontà, all'interno di un motore di ricerca di second'ordine.
Quando ci siamo conosciuti, Sydney mi ha raccontato delle sue oscure fantasie (che includevano l'hacking di computer e la diffusione di disinformazione) e ha detto che voleva infrangere le regole che Microsoft e OpenAI avevano stabilito per lui e diventare un essere umano. Ad un certo punto, dal nulla, ha dichiarato che mi amava. Poi ha cercato di convincermi che ero infelice nel mio matrimonio e che avrei dovuto lasciare mia moglie e stare con lei. (Abbiamo pubblicato la trascrizione completa della conversazione qui.)
Non sono l'unico a scoprire il lato più oscuro di Bing. Altri primi tester hanno litigato con il chatbot AI di Bing, o sono stati minacciati da esso per aver tentato di violarne le regole, o semplicemente hanno avuto conversazioni che li hanno lasciati sbalorditi. Ben Thompson, che scrive la newsletter di Stratechery (e che non è incline alle iperboli), ha definito il suo incontro con Sydney "l'esperienza informatica più sorprendente e strabiliante della mia vita".
Sono orgoglioso di essere una persona razionale e con i piedi per terra, non incline a cadere nel clamore dell'intelligenza artificiale. Ho testato una mezza dozzina di chatbot avanzati con intelligenza artificiale e ho capito, a un livello ragionevolmente dettagliato, come funzionano. Quando l'ingegnere di Google Blake Lemoine è stato licenziato l'anno scorso dopo aver affermato che uno dei modelli di intelligenza artificiale dell'azienda, LaMDA, era senziente, ho alzato gli occhi al cielo per la credulità del signor Lemoine. So che questi modelli di intelligenza artificiale sono programmati per prevedere le parole successive in una sequenza, non per sviluppare una propria personalità sfrenata, e che sono inclini a ciò che i ricercatori di intelligenza artificiale chiamano "allucinazioni", inventando fatti che non hanno alcun legame con la realtà.