L'INTELLIGENZA ARTIFICIALE (AI)

Nuova challenge “Homeless” con Intelligenza Artificiale

Nuova challenge “Homeless” con Intelligenza Artificiale

Quando le sfide virali sfruttano la povertà e manipolano la realtà

Negli ultimi mesi stanno circolando sui social alcune challenge che mostrano presunti senzatetto in situazioni di grande difficoltà: storie commoventi, richieste di aiuto, appelli alla solidarietà.
Ma sempre più spesso le persone che vediamo non esistono: sono deepfake, ossia volti e corpi generati o manipolati tramite intelligenza artificiale.

Si tratta di un fenomeno in forte crescita, che unisce due criticità:

  1. La spettacolarizzazione della povertà, trasformata in intrattenimento.

  2. La manipolazione algoritmica, che rende difficile distinguere tra reale e falso.

Un tema delicato, che genitori e insegnanti devono conoscere per accompagnare i ragazzi a un uso consapevole dei social network.


🔹 Come funzionano queste “challenge”

Le challenge collegano un’azione o un “gesto virale” a un contenuto emotivo.
Nel caso delle “homeless challenge”, il meccanismo è spesso questo:

  • un creatore pubblica un video di un “finto senzatetto” generato con deepfake;

  • racconta una storia toccante (debiti, malattia, famiglia lontana…);

  • invita gli utenti a “fare qualcosa per lui/lei”: lasciare un commento, condividere, o aderire a una “sfida solidale”;

  • il video diventa virale, generando visualizzazioni e guadagni per il creatore — non per persone reali in difficoltà.

Alcuni video includono persino inviti a donare, portando a vere e proprie truffe emotive.


🔹 Perché i creatori le fanno?

Dietro queste challenge possono esserci:

💰 Incentivi economici

Le piattaforme premiano contenuti virali → più emozione = più visualizzazioni = più monetizzazione.

🎯 Sfruttamento dell’empatia

Le storie di povertà colpiscono e generano condivisioni immediate, senza verifica.

🎭 “Giocare” con l’IA

Alcuni creator sperimentano con il deepfake senza considerare le implicazioni etiche.

🚨 Manipolazione dell’opinione pubblica

Alcuni video sfruttano temi sociali sensibili per influenzare idee su povertà, sicurezza o politiche sociali.


🟦 Perché è un problema (soprattutto per ragazzi e studenti)

1. Normalizzazione della povertà come intrattenimento

La figura del senzatetto viene ridotta a un “trend”, svuotata della dignità umana.

2. Confusione tra realtà e finzione

I ragazzi potrebbero credere che situazioni drammatiche siano reali, o al contrario diventare incapaci di riconoscere casi autentici.

3. Truffe emotive e raccolte fondi false

La finta solidarietà rischia di alimentare circuiti fraudolenti.

4. Rischio educativo altissimo

Si crea l’idea che le emozioni dei più fragili siano uno strumento per ottenere like e follower.

5. Erosione della fiducia nei media

Più i deepfake diventano convincenti, più è difficile fidarsi di ciò che si vede online.


🟦 Come parlarne con bambini e adolescenti

🧩 1. Spiegare cosa sono i deepfake

Mostrare esempi, far vedere come l’IA può manipolare volti ed emozioni.

🎓 2. Educare al pensiero critico

“Chi ha pubblicato questo video?”
“Perché?”
“Cosa vuole ottenere da me?”

🧭 3. Controllare le fonti insieme

Spiegare come verificare profili, link, contesto, data del video.

🛑 4. Insegnare a non condividere contenuti emotivi “a caldo”

Un like o una condivisione possono alimentare fenomeni ingannevoli.

💛 5. Parlare di vera solidarietà

Aiutare davvero non significa seguire una challenge, ma sostenere iniziative affidabili e trasparenti.


🟦 Come possono proteggersi genitori e insegnanti

  • Seguire i contenuti più virali per capire cosa i ragazzi vedono.

  • Mantenere un dialogo continuo sulle “mode social”.

  • Segnalare contenuti sospetti o manipolativi.

  • Promuovere percorsi scolastici di educazione digitale e media literacy.

  • Ricordare ai ragazzi che la dignità umana non è un contenuto “da usare” per fare engagement.


🟦 Conclusione

Le “Homeless Challenge” basate su deepfake non sono soltanto un fenomeno curioso o una delle tante tendenze dei social.
Sono un campanello d’allarme: ci mostrano quanto sia facile manipolare emozioni e fragilità attraverso l’intelligenza artificiale.

Genitori e insegnanti hanno un ruolo fondamentale: guidare i giovani a riconoscere ciò che è vero, ciò che è costruito e ciò che può essere dannoso per gli altri e per loro stessi.

Educare alla responsabilità digitale oggi significa proteggere empatia, verità e dignità — online e nella vita reale.


📚 Fonti e approfondimenti

Questi materiali aiutano a comprendere meglio il fenomeno dei deepfake, delle challenge social e dei rischi per i minori:

Cybersecurity360 (2025) – Approfondimento tecnico: “Deepfake: cosa sono e come riconoscerli”.
https://www.cybersecurity360.it/nuove-minacce/deep-fake-cosa-sono-e-come-riconoscerli-per-smascherare-la-disinformazione/

Internet Matters (2024) – Risorse per genitori sul tema deepfake e sicurezza online.
https://www.internetmatters.org/it/resources/what-is-a-deepfake/

Trend Micro (2025) – Impatti dei deepfake su privacy e sicurezza.
https://www.trendmicro.com/it_it/what-is/ai/deepfakes.html

Kaspersky – “Come proteggersi dalle truffe con deepfake”: focus sul lato fraudolento e sulle manipolazioni emotive.
https://www.kaspersky.it/resource-center/threats/protect-yourself-from-deep-fake

MEA Integrity (2025) – “8 Deepfake Threats to Watch”: riflessioni sulle manipolazioni per fini economici e sociali.
https://www.mea-integrity.com/8-deepfake-threats-to-watch-in-2025/

Scuola Futura – PNRR – Materiali sulla media literacy e sul riconoscimento dei falsi digitali.
https://scuolafutura.pubblica.istruzione.it