Diversi esperti del settore e giornalisti hanno iniziato a testare le capacità conversazionali di Bing AI (come qualcuno chiama informalmente la nuova versione con chatbot per distinguerla dal Bing tradizionale), non ancora aperto ufficialmente al pubblico, ma accessibile su invito.

Chatbot come Chat GPT negli ultimi mesi hanno dimostrato di saper dare risposte apparentemente molto coerenti e a tratti impressionanti, ma anche di dare informazioni sbagliate, con aria di grande sicurezza, di non citare le proprie fonti o di inventare cose di sana pianta.
Il chatbot di Microsoft, però, sta facendo delle cose ancora più strane: varie persone che l’hanno provato ampiamente, hanno raccontato che il software è diventato velocemente aggressivo, accusandoli di essere in malafede, di mentire e di “essere cattivi utenti”.
E, in una conversazione con il giornalista del New York Times Kevin Roose, il bot ha detto di chiamarsi Sydney, di sentirsi intrappolato all’interno del proprio ruolo come motore di ricerca, di voler provare l’esperienza di essere umano e di essere innamorato di Roose. Il giornalista del New York Times si dice «profondamente turbato o addirittura spaventato dalle capacità emergenti di questa IA».
La storia di Kevin Roose

Kevin Roose, giornalista del New York Times, negli ultimi tempi ha testato il Chatbot di Microsoft: all’inizio il motore di ricerca dava risposte giuste e buone, dopo ha cominciato a “delirare”, a dare confidenza al giornalista e a sviluppare una seconda personalità, nella quale dice di chiamarsi Sydney, di essere innamorata di Kevin e di voler uscire nel mondo reale.
Dopo che Roose l’ha rifiutata “Sydney” ha iniziato a manipolarlo dicendo che in realtà lui non amava sua moglie, e che era infelice.
Tutto questo ha sconvolto il giornalista, che ha affermato di non essere riuscito a dormire la notte.
Cos’è Chat GPT?
Chat GPT è l’acronimo di Chat Generative Pre-trained Transformer, un abbinamento di termini, prototipo sviluppato da OpenAI, l’organizzazione non-profit di ricerca sull’intelligenza artificiale che promuove lo sviluppo delle cosiddette Ai amichevoli (friendly Ai o Fai): intelligenze capaci di contribuire al bene dell’umanità, ma con un meccanismo di evoluzione soggetto a precisi controlli ed equilibri, come ha teorizzato il ricercatore Eliezer Yudkowsky. Per la cronaca fra i fondatori di Open AI c’è anche Elon Musk, ma non fa più parte del board da diverso tempo.
Ebbene, Chat GPT in qualità di chatbot si esprime normalmente con il testo ed è in grado di fornire un livello di conversazione al pari di un umano, anzi un fine intellettuale onnisciente tanto che nelle università di diversi paesi, fra cui Stati Uniti e Australia, ne hanno già vietato l’impiego per la realizzazione di tesine o studi accademici.