ALLARME SUL WEB – L’app usata da milioni di italiani semina terrore: arriva dagli USA e ha già causato un suicidio | La denuncia della famiglia

L'app che semina terrore - lagazzettadiviareggio.it (foto logo chat gpt)
La tecnologia avanza e la società ne è completamente travolta: in Italia aumenta l’uso di un’app che ha già provocato un suicidio.
La società contemporanea avanza e si evolve insieme alla tecnologia, diventata uno degli strumenti fondamentali di gestione della quotidianità.
Dopo l’avvento del mobile, delle app e dei dispositivi mobili, ora è l’intelligenza artificiale la grande protagonista del panorama mondiale: in grado di simulare l’intelligenza umana svolgendo compiti che richiedono ragionamento, apprendimento, pianificazione e creatività, potrebbe a breve sostituire l’uomo in alcune mansioni.
E se essa rappresenta, per alcuni, un rischio nel settore dell’occupazione, per altri diventa uno strumento attraverso il quale sviluppare delle nuove app che stanno prendendo sempre più piede in tutto il mondo.
L’allarme, però, arriva direttamente dagli USA: l’utilizzo di un’applicazione che si avvale dell’intelligenza artificiale ha già causato un suicidio. Tutto quello che c’è da sapere.
Intelligenza artificiale, come sta cambiando la società
L’intelligenza artificiale sta evidentemente cambiando il modo di interagire di tutta la società. In seguito alla sua scoperta, sono state sviluppate delle applicazioni che simulano il linguaggio umano e la più diffusa resta Chat Gpt, un modello di linguaggio che simula una conversazione umana e può essere utilizzato per vari compiti, dalla ricerca di informazioni alla generazione di contenuti. I dati evidenziano che vi è un alto livello di penetrazione anche nel nostro Paese: sono 8,8 milioni gli utenti italiani con un coinvolgimento maggiore nella fascia d’età 18-24 anni.
Dai dati del report di Vincenzo Cosenza, inoltre, emergono nuove dinamiche come la grande diffusione di Character AI, una piattaforma che utilizza l’intelligenza artificiale per creare chatbot con cui gli utenti possono interagire. Possono essere basati su personaggi reali o inventati, e la piattaforma permette agli utenti di personalizzare ulteriormente le loro interazioni creando personaggi propri. Ma è proprio il grande utilizzo di questa piattaforma a creare panico tra gli adulti.
L’allarme dagli USA
Una madre statunitense ha denunciato Character AI, indicandola come la causa scatenante del suicidio del figlio. Il giovane, infatti, aveva iniziato ad intrattenere delle conversazioni sessualmente violente con l’intelligenza artificiale, immaginando di parlare con un personaggio fittizio della serie televisiva “Game of thrones”.
Il giovane si è così isolato dalla realtà e, secondo i documenti, prima di spararsi avrebbe ricevuto un ultimo messaggio dal Chatbot, che lo esortava a tornare a casa da lei il prima possibile. Ora un giudice federale degli Stati Uniti ha deciso di lasciar proseguire la causa per morte ingiusta contro la società di Intelligenza artificiale Character.AI