Quando il dialogo è artificiale. Tra i chatbot e la solitudine
Lo schermo può sostituire un amico? Secondo Save the Children il 48% dei ragazzi si confida con l’IA
Spesso nei nostri telefoni e nei nostri computer vi è un mondo del quale si parla ancora troppo poco, probabilmente perché si sottovaluta il problema o forse perché non si è pronti ad affrontarlo. Quando parliamo di chatbot pensiamo subito all’intelligenza artificiale che si riferisce, come si può intuire anche dal nome, alla capacità di macchine o robot di simulare ragionamenti e comportamenti umani. I chatbot, in particolare, sono delle macchine progettate per replicare sentimenti ed emozioni e per rispondere a domande simulando una conversazione.
Nel 1966 l’informatico Joseph Weizenbaum, mette al mondo Eliza, il primo chatbot della storia, un software molto semplice in grado di fornire, a chi lo consulta, l’impressione di essere stato capito. Dopo tale invenzione, queste macchine sono riuscite a convincerci di essere umane e l’uomo si affida a esse sempre di più. Per esempio, le persone usano l’intelligenza artificiale per contestare o confermare la diagnosi del medico. Altre volte l’IA è pronta a dare consigli in ambito giuridico, come se avessimo di fronte un legale esperto e in molte altre occasioni ci affidiamo a lei per risolvere piccole questioni o contrattempi quotidiani.
Anche noi ragazzi ci rivolgiamo a un chatbot come se avessimo di fronte un tutor o un docente qualificato e cerchiamo supporto anche per svolgere i compiti per casa, ottenendo risposte velocemente e con un solo click. Così facendo imbocchiamo una scorciatoia ma perdiamo un’occasione per tenere la mente in allenamento e vengono meno le occasioni di confronto e dialogo con i compagni di classe al di fuori dell’ambiente scolastico.
A tal proposito, anche l’associazione Save the Children ha mostrato che più del 48% dei ragazzi, quando è triste, si confida con l’intelligenza artificiale isolandosi e limitando le vere interazioni sociali.
Molti giovani usano l’IA come rifugio dai brutti pensieri perché si sentono soli o magari perché si sentono poco compresi da docenti poco empatici e da genitori spesso troppo assenti. Il bisogno di un confidente capace di ascoltare, onnipresente, sempre disponibile e accondiscendente nasce da un forte senso di solitudine. Ma troppo spesso non ci rendiamo conto che affidarci ad un amico virtuale significa allontanarci ancora di più dalle relazioni reali, fatte non solo di parole ma anche di sguardi e di gesti fondamentali per un’interazione profonda e autentica.
I chatbot hanno dunque del potenziale ma anche molti rischi. Tali applicazioni dovrebbero essere programmate per risolvere i problemi, ma al tempo stesso simulano empatia senza provarla, riconoscono emozioni senza attraversarle e mai potranno competere con l’esperienza dell’incontro fra persone umane.
Tanti adolescenti come noi usano i chatbot non solo per ricercare informazioni, ma anche per intrattenimento. Talvolta in modo sbagliato. I giovani utenti possono riscontrare problemi con la diffusione dei loro dati personali o esporsi a contenuti poco appropriati. L’interazione con questi programmi può essere pericolosa. Un caso che fa molto riflettere è quello di un ragazzo quattordicenne floridiano che, dopo aver sviluppato una dipendenza emotiva per l’intelligenza artificiale, nel febbraio 2024 ha deciso di porre fine alla sua vita. Il caso ha acceso un dibattito sull’impatto che le interazioni con dei chatbot hanno sui più giovani e sulle dinamiche emotive dei minori.
Abbiamo riflettuto su questo fenomeno e pensiamo che l’intelligenza artificiale debba essere usata con cautela ed è giusto che a scuola se ne parli e vorremmo suggerire alcune precauzioni. Un algoritmo non sarà mai paragonabile al tuo cervello o a quello di un tuo amico, si pensa che i chatbot siano sempre corretti e che le informazioni che danno siano sempre giuste, ma possono anche sbagliare. Tutti i chatbot rispondono in modo gentile e carino, ma una persona vera ti dice se stai sbagliando mentre un bot è sempre d’accordo con te anche se sbagli. In conclusione, queste applicazioni sono uno strumento utile e efficiente, ma ricordiamoci che vanno usati in modo giusto e non possono sostituire un umano. Non spegnere il tuo cervello.
La pagina è stata realizzata dalla classe 3^ A della Secondaria di primo grado di Orentano dell’Istituto comprensivo Leonardo da Vinci di Castelfranco: Bianca Azzena, Mattia Batranu, Dalia Cannone, Emanuele Capasso, Azzurra Carbone, Matteo Carbone, Viviana Catania, Gabriele Cavallini, Aleandra Coroj, Zeno Del Seta, Alessandro Gallo, Nicole Mercaldo, Elia Toscano, Lorenzo Maria Zia.
Docenti tutor Marina Modesti, Giada Batoni, Rosa Rago, Chiara Vannucci.
Dirigente scolastico Sandro Sodini