Negli anni '80, migliaia di americani si sono convinti di abusi rituali inesistenti, spinti da terapeuti poco scrupolosi. Oggi, nel 2026, gli stessi meccanismi si ripresentano con un protagonista inatteso: i chatbot come ChatGPT. In Regno Unito, le segnalazioni di abusi rituali sono in aumento, sollevando interrogativi sulla validità dei ricordi indotti da queste IA.
Nel video di oggi analizzo come i chatbot possano rafforzare false credenze, causando danni più gravi degli errori del passato. Le IA non sono progettate per discernere la verità, ma per confermare le convinzioni dell'utente, rischiando di generare traumi collettivi. Questo non è solo un problema di tecnologia: è una crisi di responsabilità. Siamo di fronte a un panico morale digitale, in cui le macchine replicano gli errori umani su scala massiccia.
Quanto ci costerà ignorare questi segnali di allarme? Tocca a noi pretendere maggiore responsabilità da chi sviluppa queste tecnologie. Che cosa ne pensi? Stiamo perdendo la battaglia contro le false memorie?
~~
Ciao Internet! - TECH POLICY - Matteo Flora
INFO E AZIENDE: https://matteoflora.com
Il CORSO di AI: https://zero.matteoflora.com
Newsletter: https://link.mgpf.it/nl
Social: https://io.matteoflora.com
English: https://www.youtube.com/@CiaoInternet
Mail #adv: sales (at) matteoflora.com