Meta e addestramento dell'AI: opporsi è sufficiente?

Recentemente, Meta — la società madre di Facebook e Instagram — ha annunciato un'importante iniziativa: l'utilizzo dei dati pubblicati dagli utenti sui social network per l’addestramento dei propri modelli di intelligenza artificiale. Una decisione che ha sollevato dubbi e preoccupazioni, specialmente sotto il profilo della protezione dei dati personali.

Cosa ha annunciato Meta

Il 14 aprile, Mark Zuckerberg ha comunicato ufficialmente che Meta impiegherà contenuti pubblici generati dagli utenti — come post e commenti — per migliorare i suoi sistemi di intelligenza artificiale. Questo include anche interazioni con chatbot AI integrati nei social come WhatsApp e Instagram. La decisione segue le orme di altri colossi tech, come Google e OpenAI, che già utilizzano dati simili per addestrare i propri modelli.

Meta ha specificato che:

  • verranno esclusi i contenuti privati;
  • non saranno utilizzati i dati pubblicati da soggetti minorenni;
  • i dati trattati proverranno esclusivamente da profili pubblici di utenti adulti che non abbiano espresso opposizione.

È sufficiente opporsi?

Meta offre agli utenti la possibilità di opporsi al trattamento dei propri dati per l’addestramento dell’AI, tramite un modulo online dedicato. Tuttavia, l’efficacia di questa opposizione è oggetto di discussione. Infatti, anche se un utente esercita il diritto di opposizione, i suoi dati personali potrebbero comunque essere elaborati indirettamente. Ciò può accadere, ad esempio, se:

  • l’utente è stato taggato in immagini pubbliche;
  • il suo nome è menzionato in contenuti pubblici da altri utenti non oppositori;
  • le sue informazioni appaiono in post condivisi pubblicamente da terzi.

In questi casi, i dati diventano potenzialmente accessibili per finalità di addestramento, violando — secondo alcuni esperti — lo spirito del Regolamento generale sulla protezione dei dati (GDPR), in particolare l'articolo 8, che tutela i dati dei minori.

Le basi giuridiche e i rischi del legittimo interesse

Meta giustifica l'utilizzo dei dati degli utenti facendo leva sul "legittimo interesse", una delle basi giuridiche previste dal GDPR. Tuttavia, questo principio è bilanciato dal diritto degli utenti alla riservatezza. Il fatto che i dati provengano da fonti pubbliche non garantisce automaticamente il loro libero utilizzo, soprattutto se si considerano i rischi connessi:

  • dati inesatti o non verificati: I contenuti sui social possono contenere informazioni false o imprecise, che rischiano di compromettere la qualità e l’accuratezza dei modelli AI addestrati con questi dataset;
  • difficoltà di controllo: Anche gli utenti più attenti possono trovarsi esposti, nonostante le misure adottate per tutelarsi;
  • rischio per i minori: L'esclusione formale dei contenuti pubblicati dai minori non è una garanzia assoluta, vista la possibilità di esposizione indiretta.

Quali sono le tutele effettive?

Nonostante alcune cautele introdotte da Meta — come l’esclusione dei contenuti privati e dei minori — gli strumenti messi a disposizione degli utenti appaiono limitati. La sola possibilità di opposizione tramite modulo online potrebbe non garantire una reale protezione dei dati, soprattutto in un contesto complesso come quello dei social network, dove le informazioni circolano in modo frammentario e difficilmente controllabile.

La comunità legale e le autorità garanti per la privacy stanno monitorando la situazione, e sarà importante osservare gli sviluppi futuri. Potrebbero emergere nuove regole o chiarimenti sull’applicabilità del legittimo interesse e sull'effettiva possibilità di opporsi in modo efficace al trattamento.

Conclusione

L'iniziativa di Meta rappresenta un importante banco di prova per il rapporto tra intelligenza artificiale e tutela dei dati personali. Da un lato, l'evoluzione tecnologica richiede dataset sempre più vasti e variegati per migliorare le capacità delle AI. Dall'altro, la protezione della privacy degli utenti rimane un diritto fondamentale che non può essere sacrificato in nome del progresso.

Gli utenti devono essere consapevoli delle implicazioni del loro comportamento online e delle scelte offerte dalle piattaforme. Tuttavia, la responsabilità ultima ricade sulle aziende e sui regolatori, chiamati a garantire un equilibrio sostenibile tra innovazione e diritti individuali. I prossimi mesi saranno decisivi per capire se questa sfida sarà vinta.

Le ultime interviste

AI generativa sul lavoro: impatto linee guida di Hong Kong

Raffaella Aghemo

Tutela utenti nei chatbot per salute mentale: modello USA

Raffaella Aghemo

Il cliente è mio: come farlo riconoscere senza conflitti?

Anna Elena Brolis