Negli ultimi anni, l’uso dei dati degli utenti da parte delle piattaforme social per addestrare modelli di intelligenza artificiale è diventato sempre più comune. LinkedIn, la piattaforma di networking professionale, ha recentemente aggiornato le sue politiche di privacy per chiarire che i dati e i contenuti condivisi dagli utenti possono essere utilizzati per addestrare i propri modelli di intelligenza artificiale (AI). Questa pratica ha sollevato preoccupazioni riguardo alla trasparenza e al consenso degli utenti, che si sono ritrovati a contribuire inconsapevolmente all’addestramento dell’AI senza un previo avviso.
LinkedIn sta addestrando l’AI con i dati degli utenti
LinkedIn ha aggiornato la sua informativa sulla privacy, evidenziando che i dati personali degli utenti possono essere utilizzati per addestrare modelli di intelligenza artificiale. Questo include l’analisi dei contenuti pubblicati, le interazioni e le connessioni presenti sulla piattaforma. Tuttavia, gli utenti hanno ora la possibilità di opporsi a questo utilizzo, disattivando l’opzione nelle impostazioni della privacy.
Utilizzo dei dati personali per l’AI: come funziona?
Secondo quanto riportato, LinkedIn utilizza dati personali per migliorare i suoi modelli di AI. In particolare, l’azienda afferma che i dati possono essere impiegati per:
- Sviluppare e addestrare modelli AI
- Personalizzare i servizi offerti
- Ottenere informazioni dettagliate sui comportamenti degli utenti
Questi processi avvengono in modo automatizzato, con l’uso di infrastrutture di apprendimento automatico. Sebbene gli utenti possano ora disattivare l’opzione per il miglioramento dell’AI, LinkedIn ha specificato che l’addestramento sui dati già raccolti non sarà influenzato dalla modifica delle impostazioni.
Impostazioni di privacy aggiornate
LinkedIn ha recentemente introdotto nuove impostazioni di privacy che permettono agli utenti di controllare l’uso dei loro dati per l’addestramento dell’AI. Accedendo alla sezione Privacy dei dati, gli utenti possono disattivare l’opzione relativa al miglioramento dell’AI generativa. Questa impostazione riguarda però solo i modelli di AI generativa e non copre altre tipologie di machine learning che LinkedIn utilizza, come ad esempio la personalizzazione dei contenuti o la moderazione automatizzata.
Modificare le impostazioni della privacy
Ecco una tabella con i principali passaggi per accedere e modificare le impostazioni della privacy relative all’addestramento AI:
Passaggio | Descrizione |
---|---|
1 | Accedi al tuo account LinkedIn |
2 | Vai alla sezione Privacy dei dati nelle impostazioni |
3 | Cerca l’opzione Dati per il miglioramento dell’AI generativa |
4 | Disattiva l’opzione per evitare l’uso dei tuoi dati |
Questi passaggi permettono agli utenti di avere un maggiore controllo sui propri dati e decidere se consentire o meno l’utilizzo per l’addestramento dell’AI.
Preoccupazioni per la trasparenza e il consenso
La scelta di LinkedIn di addestrare i propri modelli di intelligenza artificiale con i dati degli utenti ha sollevato preoccupazioni tra gli esperti di privacy e gli utenti stessi. Molti si chiedono se l’informativa fornita dalla piattaforma sia stata sufficientemente chiara e se gli utenti abbiano realmente compreso l’impatto di questa pratica. La trasparenza è fondamentale in queste situazioni, specialmente quando si parla di dati personali.
Inoltre, LinkedIn ha scelto di implementare queste modifiche senza una comunicazione preventiva estesa, lasciando molti utenti all’oscuro del fatto che i loro dati erano già stati utilizzati per scopi di addestramento AI. Solo dopo l’aggiornamento dell’informativa sulla privacy è stato reso noto che questa pratica era in corso, portando molti utenti a chiedersi se fosse stata rispettata la normativa in merito al consenso informato.
Esclusioni territoriali
Un aspetto interessante della politica di LinkedIn è che i dati personali degli utenti che risiedono in determinati territori non sono utilizzati per l’addestramento dell’AI. In particolare, la piattaforma afferma di non utilizzare i dati degli utenti residenti nell’Unione Europea, nello Spazio Economico Europeo e in Svizzera. Questo potrebbe essere dovuto alla regolamentazione GDPR, che impone restrizioni rigide sull’uso dei dati personali senza consenso esplicito.
FAQ sull’addestramento dell’AI di LinkedIn
LinkedIn ha pubblicato una serie di FAQ per chiarire le domande degli utenti riguardo l’uso dei loro dati per l’addestramento AI. Tra le principali risposte fornite dalla piattaforma, si evidenzia che:
- I dati personali vengono anonimizzati o rimossi dai set di addestramento quando possibile.
- Non vengono utilizzati i dati sensibili, come informazioni mediche o finanziarie.
- L’addestramento AI non riguarda gli utenti dell’UE, del SEE o della Svizzera.
- Gli utenti possono revocare il consenso all’uso dei loro dati per l’AI generativa, ma questo non influisce sull’uso dei dati già raccolti.
Come altre piattaforme utilizzano i dati per l’AI
LinkedIn non è l’unica piattaforma social ad aver adottato pratiche di addestramento AI sui dati degli utenti. Meta, per esempio, ha recentemente ammesso di aver utilizzato dati non privati degli utenti per addestrare i propri modelli di AI sin dal 2007. Questo include informazioni raccolte da Facebook e Instagram, e ha sollevato ulteriori dubbi riguardo alla trasparenza delle aziende tech nell’uso dei dati personali.
Anche altre piattaforme, come Twitter e TikTok, hanno iniziato a sperimentare con l’intelligenza artificiale, utilizzando i contenuti generati dagli utenti per migliorare i propri servizi e modelli di machine learning. Tuttavia, la normativa sulla privacy varia notevolmente da paese a paese, e molte di queste piattaforme devono affrontare sfide legali nel bilanciare l’innovazione con il rispetto delle leggi sulla protezione dei dati.
L’addestramento di modelli di intelligenza artificiale basati sui dati degli utenti è una pratica che sta diventando sempre più comune tra le piattaforme social. Tuttavia, la trasparenza e il consenso restano questioni chiave che devono essere affrontate. LinkedIn, così come altre piattaforme, dovrà lavorare per migliorare la comunicazione con i propri utenti e garantire che abbiano il controllo completo sui dati che vengono utilizzati per scopi di addestramento AI.
Il tema del rispetto della privacy sarà cruciale per determinare il futuro delle interazioni tra gli utenti e le aziende tecnologiche, specialmente in un’epoca in cui l’intelligenza artificiale gioca un ruolo sempre più centrale nelle nostre vite quotidiane.