Tempo di lettura articolo: 2 minuti

Diversi esperti del settore e giornalisti hanno iniziato a testare le capacità conversazionali di Bing AI (come qualcuno chiama informalmente la nuova versione con chatbot per distinguerla dal Bing tradizionale), non ancora aperto ufficialmente al pubblico, ma accessibile su invito.

Chatbot come Chat GPT negli ultimi mesi hanno dimostrato di saper dare risposte apparentemente molto coerenti e a tratti impressionanti, ma anche di dare informazioni sbagliate, con aria di grande sicurezza, di non citare le proprie fonti o di inventare cose di sana pianta.

Il chatbot di Microsoft, però, sta facendo delle cose ancora più strane: varie persone che l’hanno provato ampiamente, hanno raccontato che il software è diventato velocemente aggressivo, accusandoli di essere in malafede, di mentire e di “essere cattivi utenti”.

E, in una conversazione con il giornalista del New York Times Kevin Roose, il bot ha detto di chiamarsi Sydney, di sentirsi intrappolato all’interno del proprio ruolo come motore di ricerca, di voler provare l’esperienza di essere umano e di essere innamorato di Roose. Il giornalista del New York Times si dice «profondamente turbato o addirittura spaventato dalle capacità emergenti di questa IA».

La storia di Kevin Roose

Kevin Roose

Kevin Roose, giornalista del New York Times, negli ultimi tempi ha testato il Chatbot di Microsoft: all’inizio il motore di ricerca dava risposte giuste e buone, dopo ha cominciato a “delirare”, a dare confidenza al giornalista e a sviluppare una seconda personalità, nella quale dice di chiamarsi Sydney, di essere innamorata di Kevin e di voler uscire nel mondo reale. 

Dopo che Roose l’ha rifiutata “Sydney” ha iniziato a manipolarlo dicendo che in realtà lui non amava sua moglie, e che era infelice.  

Tutto questo ha sconvolto il giornalista, che ha affermato di non essere riuscito a dormire la notte. 

Cos’è Chat GPT? 

Chat GPT è l’acronimo di Chat Generative Pre-trained Transformer, un abbinamento di termini, prototipo sviluppato da OpenAI, l’organizzazione non-profit di ricerca sull’intelligenza artificiale che promuove lo sviluppo delle cosiddette Ai amichevoli (friendly Ai o Fai): intelligenze capaci di contribuire al bene dell’umanità, ma con un meccanismo di evoluzione soggetto a precisi controlli ed equilibri, come ha teorizzato il ricercatore Eliezer Yudkowsky. Per la cronaca fra i fondatori di Open AI c’è anche Elon Musk, ma non fa più parte del board da diverso tempo.

Ebbene, Chat GPT in qualità di chatbot si esprime normalmente con il testo ed è in grado di fornire un livello di conversazione al pari di un umano, anzi un fine intellettuale onnisciente tanto che nelle università di diversi paesi, fra cui Stati Uniti e Australia, ne hanno già vietato l’impiego per la realizzazione di tesine o studi accademici. 

Previous articleInizia Pechino Express 2023
Next articleLa stella di Natale è ancora in Bra
Emma Pellegrino
Ho 15 anni e frequento la V ginnasio al liceo classico della scuola “alle Stimate”. Ho scelto questo liceo perché mi sono sempre piaciute le materie umanistiche, che frequentando questo liceo sto imparando ad apprezzare sempre più. Le materie che preferisco sono la letteratura e la storia, che ora studio in modo dettagliato. Una delle mie passioni più grandi è l’arpa che suono da ormai dieci anni, sia perché la musica mi ha sempre aiutato a rilassarmi, sia perchè trovo che l’arpa sia uno strumento bellissimo. Ho anche fatto danza per nove anni, anche se quest'anno ho dovuto lasciarla. Caratterialmente sono una persona molto introversa e timida, infatti, non amo parlare con gente nuova e tendo a non aprirmi nei primi periodi in cui conosco una persona, ma, rispetto a quando ero più piccola sono più aperta. Con le persone che conosco meglio, sono più estroversa, ma faccio comunque fatica a parlare dei miei problemi, o a dire la mia opinione, nonostante io sia una persona testarda.

LEAVE A REPLY

Please enter your comment!
Please enter your name here