{"id":3495,"date":"2023-11-24T08:32:16","date_gmt":"2023-11-24T07:32:16","guid":{"rendered":"https:\/\/stage.usercentrics.com\/it\/?post_type=knowledge&#038;p=21934"},"modified":"2024-09-05T12:08:18","modified_gmt":"2024-09-05T10:08:18","slug":"intelligenza-artificiale-ia-e-consenso","status":"publish","type":"knowledge","link":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/","title":{"rendered":"Intelligenza artificiale (IA), dati personali e consenso"},"content":{"rendered":"\n\n<p>L&#8217;intelligenza artificiale (IA) sembra ormai essere ovunque e ha gi\u00e0 attirato finanziamenti, investimenti e attenzione dei media. Si tratta dell&#8217;ultima tendenza in ambito tecnologico o di un fenomeno che sta cambiando e continuer\u00e0 a cambiare in modo tangibile ogni aspetto del nostro modo di creare e lavorare? Chi \u00e8 il proprietario dei dati di input e dei risultati?<\/p>\n<p>Si dice che lo sviluppo dell&#8217;intelligenza artificiale poggi su tre pilastri: <a href=\"https:\/\/hackernoon.com\/evolution-of-the-data-production-paradigm-in-ai\" target=\"_blank\" rel=\"noopener\">algoritmi, hardware e dati<\/a>. I dati sono l&#8217;elemento meno chiaro, e il consenso dell&#8217;utente ha un ruolo centrale.<\/p>\n<p>Il rapido progresso nell\u2019ambito dell\u2019addestramento dell&#8217;IA e degli utilizzi di questa tecnologia ha sollevato dubbi sul consenso degli utenti e sulle implicazioni etiche derivanti dall&#8217;uso dei dati personali. Se per addestrare l&#8217;IA si utilizzano i dati degli utenti, questi ultimi possono rivendicare dei diritti sui risultati prodotti? Le organizzazioni che necessitano di dati per addestrare l&#8217;IA devono ottenere il consenso per i dati gi\u00e0 pubblicati online? Per quante e quali specifiche finalit\u00e0 i fornitori di servizi e strumenti di IA necessitano del consenso esplicito degli utenti?<\/p>\n\n\n<h2 class=\"wp-block-heading\">Che cos&#8217;\u00e8 l&#8217;intelligenza artificiale (IA)?<\/h2>\n<p>L&#8217;intelligenza artificiale consiste nello sviluppo di macchine in grado di eseguire attivit\u00e0 che in genere richiedono l&#8217;intelligenza umana. Ci\u00f2 include aree come il riconoscimento testuale o vocale, la risoluzione dei problemi e i processi decisionali. Lo sviluppo dell&#8217;IA richiede spesso l&#8217;immissione di grandi quantit\u00e0 di dati per aiutare i sistemi ad &#8220;apprendere&#8221;.<\/p>\n<h4>Che cos&#8217;\u00e8 l&#8217;apprendimento automatico?<\/h4>\n<p>L&#8217;apprendimento automatico (machine learning) \u00e8 un sottoinsieme dell&#8217;intelligenza artificiale finalizzato allo sviluppo di algoritmi e modelli che consentono ai computer di imparare dai dati e di fare previsioni o prendere decisioni senza essere esplicitamente programmati per farlo. Consente ai computer di &#8220;imparare&#8221; dagli esempi e migliorare le prestazioni nel tempo.<\/p>\n<h4>Cosa sono i modelli linguistici di grandi dimensioni (LLM)?<\/h4>\n<p>I modelli linguistici di grandi dimensioni (LLM, large language models) sono una novit\u00e0 recente in ambito di ricerca sull&#8217;IA e sono progettati per comprendere e generare un linguaggio simile a quello umano. ChatGPT di OpenAI e Bard di Google sono esempi di LLM accessibili al pubblico. Alcuni strumenti sviluppati utilizzando tali modelli possono essere utilizzati per l&#8217;ottimizzazione per i motori di ricerca (SEO), i contenuti marketing e altri scopi aziendali.<\/p>\n<p>Lo scopo dell&#8217;addestramento \u00e8 quello di permettere agli LLM di comprendere la struttura, il significato e il contesto del linguaggio umano, in modo che possano, per esempio, fornire risposte pi\u00f9 accurate quando vengono interrogati dalle persone.<\/p>\n<p>Gli LLM sono addestrati su grandi quantit\u00e0 di testo estratto da libri, articoli, siti web e altre fonti. Finora si sono verificati problemi di privacy dei dati a causa dell&#8217;estrazione e dell&#8217;analisi dei contenuti senza il consenso degli autori o dei proprietari. \u00c8 possibile che si trattasse di dati sensibili utilizzati senza consenso.<\/p>\n\n\n<h2 class=\"wp-block-heading\">Che cos&#8217;\u00e8 l&#8217;addestramento dell&#8217;IA?<\/h2>\n<p>L&#8217;addestramento dell&#8217;IA, o addestramento dell&#8217;apprendimento automatico, consiste nell&#8217;insegnare a un sistema di intelligenza artificiale ad apprendere modelli, fare previsioni o prendere decisioni in base ai dati forniti. L&#8217;addestramento \u00e8 essenziale per sviluppare sistemi di IA in grado di eseguire attivit\u00e0 specifiche, riconoscere modelli, fornire informazioni accurate o formulare giudizi ponderati.<\/p>\n<p>Il processo di addestramento prevede una serie di passaggi. In breve, si acquisiscono i dati pertinenti, che vengono predisposti per l&#8217;uso, quindi si scelgono le attivit\u00e0 che il modello dovr\u00e0 eseguire con i set di dati di addestramento e si procede all&#8217;inserimento dei dati e all&#8217;analisi. Infine, \u00e8 necessario far s\u00ec che i risultati o le previsioni corrispondano agli esiti effettivi o migliorino la precisione e garantire che il modello di IA funzioni bene su tutti i set di dati, compresi quelli reali, e non solo su quelli utilizzati per l&#8217;addestramento. I modelli di IA devono superare tutti questi passaggi per essere pronti per un uso pi\u00f9 ampio.<\/p>\n<h4>Ambiguit\u00e0 nell&#8217;uso dei set di dati per l&#8217;addestramento dell&#8217;IA<\/h4>\n<p>Le organizzazioni potrebbero chiedere cosa si intende per &#8220;uso&#8221; dei dati personali. In quale misura \u00e8 necessario intervenire affinch\u00e9 i dati non siano pi\u00f9 considerati personali? Ad esempio, per ottenere dati utilizzabili dal modello di addestramento, potrebbe essere necessario trasformarli rispetto al formato in cui sono stati raccolti. Inoltre, una data societ\u00e0 deve ottenere il consenso all&#8217;uso dei dati per l&#8217;addestramento dei modelli di IA anche se opera unicamente a scopo di ricerca e non per fini commerciali? Forse l&#8217;accesso sar\u00e0 consentito solo ai ricercatori.<\/p>\n<h2>Con quali dati viene addestrata l&#8217;IA?<\/h2>\n<p>L&#8217;IA pu\u00f2 essere addestrata con molti tipi di dati. Le esigenze variano in base all&#8217;uso a cui il sistema \u00e8 destinato, ad esempio rispondere a domande, prendere decisioni, generare grafiche o testo, ecc.<\/p>\n<p>Di seguito sono indicati alcuni tipi comuni di dati per l&#8217;addestramento dell&#8217;IA:<\/p>\n<ul>\n<li><strong>Testo<\/strong>: ad esempio estratto da libri, articoli, siti web o social media; utilizzato per traduzione, sentiment analysis, sviluppo di chatbot, ecc.<\/li>\n<li><strong>Immagini<\/strong>: da un numero elevato di immagini categorizzate; utilizzate per il riconoscimento delle immagini, il rilevamento degli oggetti e la creazione di immagini<\/li>\n<li><strong>Audio<\/strong>: ad esempio parole pronunciate, suoni o modelli acustici; utilizzato per il riconoscimento vocale, gli assistenti vocali e i modelli di analisi audio<\/li>\n<li><strong>Dati video<\/strong>: provenienti da sequenze video; utilizzati per analisi video, sorveglianza, creazione di video e apprendimento di modelli temporali<\/li>\n<li><strong>Dati di gioco<\/strong>: estratti da dati e interazioni di gioco; utilizzati per sviluppare il gioco e la strategia<\/li>\n<li><strong>Dati strutturati<\/strong>: ad esempio estratti da database o fogli di calcolo; utilizzati per l&#8217;analisi predittiva, i sistemi di raccomandazione o il rilevamento di frodi<\/li>\n<li><strong>Dati dei sensori<\/strong>: estratti da videocamere, lidar, radar, ecc.; utilizzati per sistemi di veicoli autonomi, automazione industriale, ecc.<\/li>\n<li><strong>Dati sanitari<\/strong>: estratti da esami di diagnostica per immagini, quali radiografie e RM, cartelle cliniche e dati clinici dei pazienti; utilizzati per assistenza nella diagnosi, nel trattamento e nella ricerca<\/li>\n<li><strong>Dati finanziari<\/strong>: estratti da dati esistenti provenienti di mercati e dalle registrazioni delle transazioni; utilizzati per prevedere il prezzo delle azioni, la valutazione del credito e il rilevamento di frodi<\/li>\n<li><strong>Dati genomici<\/strong>: estratti da sequenze di DNA, marcatori genetici e altri dati biologici correlati; utilizzati per la medicina personalizzata e per migliorare la comprensione della genetica<\/li>\n<li><strong>Dati di simulazione<\/strong>: estratti di dati generati da simulazioni; utilizzati per apprendere il comportamento dei sistemi in condizioni diverse<\/li>\n<\/ul>\n<h4>Ambiguit\u00e0 sull&#8217;utilizzo di diverse tipologie di dati per l&#8217;addestramento dell&#8217;IA<\/h4>\n<p>Molti dei dati per l&#8217;addestramento dell&#8217;intelligenza artificiale sono esplicitamente citati nelle leggi sulla privacy dei dati. Spesso si tratta di dati personali e di <a href=\"https:\/\/usercentrics.com\/knowledge-hub\/personally-identifiable-information-vs-personal-data\/\">PII<\/a>, ovvero informazioni di identificazione personale. Alcuni di questi dati sono anche classificati dalle leggi sulla privacy come sensibili, il che significa che potrebbero causare danni maggiori se fossero consultati o utilizzati senza autorizzazione.<\/p>\n<p>I dati sanitari, genomici e finanziari sono esempi particolarmente significativi di dati personali sensibili. Per i dati sensibili in genere \u00e8 richiesto il consenso dell&#8217;utente ai fini della raccolta o dell&#8217;utilizzo ai sensi della legge sulla privacy, mentre per i dati personali non sensibili a volte \u00e8 richiesto solo il consenso alla vendita o all&#8217;uso per pubblicit\u00e0 mirate, profilazione, ecc.<\/p>\n<p>Va inoltre sottolineato che non tutti i gruppi di dati per l&#8217;addestramento sono uguali. Qualit\u00e0, quantit\u00e0, diversit\u00e0 e autorizzazione all&#8217;uso possono variare ampiamente. Ci\u00f2 pu\u00f2 influire notevolmente sulla capacit\u00e0 di &#8220;apprendimento&#8221; e sulle prestazioni dei sistemi. In alcuni casi pu\u00f2 essere richiesto il consenso all&#8217;uso di alcuni tipi di dati all&#8217;interno di un gruppo ma non di altri. Anche dati scarsamente equilibrati o non eterogenei possono produrre risultati distorti, a volte con contenuti offensivi o ai limiti della legalit\u00e0, come nel caso dei sistemi che generano suggerimenti discriminatori o identificazioni imprecise.<\/p>\n<p>Ai sensi di molte leggi sulla privacy, le persone interessate hanno il diritto di chiedere la correzione dei propri dati da parte dell&#8217;entit\u00e0 che li ha raccolti nel caso in cui siano incompleti o imprecisi. Cosa succede se i dati sono corretti ma vengono utilizzati per produrre risultati imprecisi? Quali diritti possono rivendicare gli interessati? L&#8217;uso di queste tecnologie pone molti quesiti complessi per le autorit\u00e0 di regolamentazione, tra cui l&#8217;etica dell&#8217;automazione.<\/p>\n\n\n<h2 class=\"wp-block-heading\">Consenso, IA e dati personali<\/h2>\n<p>Secondo le previsioni della societ\u00e0 di ricerca Gartner, entro la fine del 2023 i dati personali del <a href=\"https:\/\/www.gartner.com\/en\/newsroom\/press-releases\/2020-09-14-gartner-says-by-2023--65--of-the-world-s-population-w\" rel=\"noopener\" target=\"_blank\">65% della popolazione mondiale<\/a> saranno protetti da normative sulla privacy dei dati ed entro il 2024 tale percentuale <a href=\"https:\/\/www.gartner.com\/en\/newsroom\/press-releases\/2022-05-31-gartner-identifies-top-five-trends-in-privacy-through-2024\" rel=\"noopener\" target=\"_blank\">salir\u00e0 al 75%.<\/a> Gli unici aspetti che cambiano pi\u00f9 velocemente della copertura normativa sulla privacy sono la tecnologia stessa e le richieste di dati, che sono alla base di tutto, dalle innovazioni scientifiche alle campagne di marketing.<\/p>\n<p>Ma i dati non sono come l&#8217;aria. Non possono essere usati liberamente da chiunque. Molti dei dati esistenti a cui le organizzazioni desiderano accedere sono generati dalle persone e, pertanto, sono tutelati da diritti in materia di protezione e di accesso. Oggi i consumatori sono sempre pi\u00f9 informati sulla privacy dei dati e sui loro diritti in materia di dati personali, anche se non sempre conoscono nel dettaglio come operano i sistemi di intelligenza artificiale e altre funzioni.<\/p>\n<p>Con l&#8217;approvazione di un crescente numero di normative sulla privacy in tutto il mondo, le organizzazioni devono essere sempre pi\u00f9 attente ad adempiere alle proprie responsabilit\u00e0 in materia di privacy dei dati. L&#8217;importanza delle normative sulla privacy e dei diritti dei consumatori \u00e8 corroborata dall&#8217;imposizione di <a href=\"https:\/\/usercentrics.com\/knowledge-hub\/what-is-the-maximum-fine-related-to-gdpr-violations\/\" rel=\"noopener\" target=\"_blank\">sanzioni potenzialmente onerose<\/a>, come quelle previste ai sensi del <a href=\"https:\/\/usercentrics.com\/knowledge-hub\/the-eu-general-data-protection-regulation\/\" rel=\"noopener\" target=\"_blank\">Regolamento generale sulla protezione dei dati (GDPR) dell&#8217;Unione europea<\/a>.<\/p>\n<h4>\u00c8 importante conoscere la provenienza dei set di dati per l&#8217;addestramento dell&#8217;IA?<\/h4>\n<p>Le potenziali fonti di dati degli utenti sono sempre pi\u00f9 numerose, soprattutto quelle online, come le piattaforme e le app social. Le aziende possono avere difficolt\u00e0 a determinare le proprie responsabilit\u00e0 in materia di privacy dei dati se hanno la sede in un paese e utenti in tutto il mondo, poich\u00e9 sono tenute a rispettare diverse normative sulla privacy. Molte di queste leggi sono extraterritoriali, nel qual caso diritti e tutele dipendono solo dal luogo di residenza degli utenti, non dalle sedi delle aziende.<\/p>\n<p>Molti consumatori non fanno molta attenzione alla quantit\u00e0 di dati che creano ogni giorno, a chi pu\u00f2 accedervi e a come potrebbero essere utilizzati. I bambini non danno importanza o non comprendono appieno il concetto di generazione o trattamento dei dati degli utenti, anche se la maggior parte delle leggi sulla privacy dei dati richiede ulteriori protezioni e consenso per l&#8217;accesso ai loro dati. Il consenso in genere deve essere fornito da un genitore o da un tutore legale se il bambino \u00e8 al di sotto di una determinata soglia di et\u00e0 stabilita da ciascuna legge.<\/p>\n<p>Alcune leggi sulla privacy dei dati non disciplinano i dati personali resi pubblici dalle persone, tra cui quelli generati sulle piattaforme social. Probabilmente post, commenti e foto per alcune persone non rappresentano una grande preoccupazione in termini di privacy. Ma cosa dire invece di messaggi privati o chat, che potrebbero contenere materiali molto pi\u00f9 sensibili?<\/p>\n<p>Una volta raccolti i dati, idealmente con il consenso dell&#8217;utente, le persone dovrebbero sapere come vengono trattati. La maggior parte delle leggi sulla privacy prevede che il titolare del trattamento, ovvero l&#8217;entit\u00e0 responsabile della raccolta e dell&#8217;utilizzo dei dati, informi gli utenti su quali dati verranno raccolti e per quali scopi. Se tali scopi cambiano, molte leggi sulla privacy prevedono che il titolare del trattamento informi gli utenti e ottenga un nuovo consenso. Con l&#8217;addestramento dell&#8217;IA, questo processo potrebbe richiedere molti dettagli specifici ed essere soggetto a cambiamenti frequenti.<\/p>\n\n\n<h2 class=\"wp-block-heading\">Difficolt\u00e0 di acquisizione del consenso degli utenti all&#8217;utilizzo dell&#8217;IA<\/h2>\n<p>Poich\u00e9 molti sistemi di intelligenza artificiale sono ancora sperimentali e generano risultati non prevedibili, il rispetto di alcuni requisiti di privacy dei dati pu\u00f2 essere difficoltoso. Le organizzazioni possono comunicare agli utenti lo scopo per cui intendono utilizzare i dati, ma \u00e8 possibile che il loro uso effettivo, il modo in cui vengono modificati o i risultati che producono generino risultati diversi dal previsto.<\/p>\n<p>Gli utenti devono essere informati in anticipo di eventuali variazioni messe in atto, ma chi svolge il lavoro potrebbe venire a conoscenza della modifica solo dopo la sua attuazione. Se vengono analizzate grandi quantit\u00e0 di dati in tempo reale, i meccanismi tradizionali per ottenere il consenso degli utenti, come i banner dei cookie, potrebbero non essere abbastanza rapidi o granulari o essere comunque insufficienti.<\/p>\n<p>I sistemi di IA rivolti agli utenti possono essere potenzialmente manipolatori e indurre le persone a fornire inconsapevolmente determinate informazioni. I sistemi possono inoltre rivelare connessioni pi\u00f9 sofisticate e nebulose tra i punti dati, consentendo l&#8217;identificazione e la profilazione a un livello mai visto prima. Questo potenzialmente pu\u00f2 trasformare qualsiasi dato in informazioni personali identificabili o sensibili. Gli attuali requisiti di consenso potrebbero non disciplinare adeguatamente questa materia.<\/p>\n<p>Mentre le pratiche manipolatorie dell&#8217;interfaccia utente e dell&#8217;esperienza utente, comunemente note come <a href=\"https:\/\/usercentrics.com\/knowledge-hub\/dark-patterns-and-how-they-affect-consent\/\">dark pattern<\/a>, sono sempre pi\u00f9 spesso condannate e, in alcuni casi, regolamentate, esse tendono a focalizzarsi su tattiche gi\u00e0 note. Il responsive design potrebbe consentire lo sviluppo di nuove e pi\u00f9 sofisticate metodologie di manipolazione degli utenti.<\/p>\n\n\n<h2 class=\"wp-block-heading\">La controversia su Zoom e il consenso degli utenti<\/h2>\n<p>La popolare piattaforma per videoconferenze Zoom ha aggiornato i suoi Termini di servizio a marzo 2023, attivit\u00e0 piuttosto comune per un&#8217;azienda. Tuttavia, due sezioni sembravano avere ampie implicazioni per le autorizzazioni di Zoom relative ai dati degli utenti, definiti &#8220;Dati generati dal servizio&#8221;, che includono telemetria, utilizzo del prodotto, diagnostica e dati o contenuti simili generati utilizzando Zoom e raccolti dall&#8217;azienda durante l&#8217;utilizzo della piattaforma.<\/p>\n<p>In base ai Termini di servizio aggiornati, Zoom deteneva tutti i diritti sui Dati generati dal servizio, inclusi i diritti di modifica, distribuzione, elaborazione, condivisione, gestione e archiviazione &#8220;per qualsiasi scopo, nella misura e nel modo consentiti dalla legge applicabile&#8221;. \u00c8 stato esplicitamente menzionato il diritto di Zoom di utilizzare i dati degli utenti per l&#8217;apprendimento automatico e l&#8217;intelligenza artificiale, inclusi modelli e algoritmi di addestramento e ottimizzazione.<\/p>\n<p>Pertanto, Zoom potrebbe raccogliere una serie di dati degli utenti sull&#8217;utilizzo della piattaforma e impiegarli in vari modi, ad esempio per l&#8217;addestramento dell&#8217;IA, senza dover chiedere il consenso esplicito degli utenti o consentire loro di rifiutare tale consenso.<\/p>\n<p>Questo pu\u00f2 essere legale ai sensi delle attuali leggi sulla privacy in vigore negli Stati Uniti, dove Zoom ha la sede centrale (il paese non ha una singola legge federale, ma solo una serie di leggi a livello statale), ma non \u00e8 legale ai sensi del GDPR dell&#8217;UE, che richiede, tra gli altri requisiti, che il consenso sia &#8220;informato&#8221;, (<a href=\"https:\/\/gdpr.eu\/Recital-32-Conditions-for-consent\/\" rel=\"noopener\" target=\"_blank\">Considerando 32 GDPR<\/a>).<\/p>\n<p>Ai sensi del GDPR, affinch\u00e9 il consenso sia valido, \u00e8 necessario che venga ottenuto prima dell&#8217;inizio della raccolta dei dati e che gli utenti siano informati in modo chiaro e comprensibile. I Termini di servizio di Zoom sono piuttosto criptici, cos\u00ec come quelli di molte altre aziende.<\/p>\n<h4>La risposta di Zoom alla controversia sulla modifica dei Termini di servizio<\/h4>\n<p>La reazione alla scoperta e alla divulgazione dei Termini di servizio \u00e8 stata notevole. Le aziende temevano che le informazioni proprietarie provenienti da riunioni riservate potessero essere utilizzate senza consenso o che Zoom sarebbe diventata titolare dei loro contenuti creativi, come interviste per video o podcast.<\/p>\n<p>Alcune aziende statunitensi che utilizzano Zoom per scopi legati all&#8217;assistenza sanitaria erano terrorizzate dalle possibili violazioni dell&#8217;<a href=\"https:\/\/www.hhs.gov\/hipaa\/index.html\" rel=\"noopener\" target=\"_blank\">Health Insurance Portability and Accountability Act (HIPAA)<\/a> in termini di privacy. Uno dei timori era che l&#8217;azienda potesse entrare in possesso dei contenuti delle sessioni terapeutiche dei pazienti e utilizzarli. \u00c8 possibile che questa non fosse l&#8217;intenzione dell&#8217;azienda, ma la percezione del pubblico ha sempre e comunque un forte peso.<\/p>\n<p><a href=\"https:\/\/blog.zoom.us\/it\/zooms-term-service-ai\/\" rel=\"noopener\" target=\"_blank\">Zoom ha risposto con un ulteriore aggiornamento dei Termini di servizio<\/a> per chiarire l&#8217;uso dei dati, affermando che non avrebbe addestrato i propri modelli di IA con contenuti audio, video o chat dei clienti senza il loro previo consenso.<\/p>\n<p>Inoltre, ha aggiunto alla sezione 10.2 la seguente affermazione: &#8220;<em>Zoom non utilizza audio, video, chat, condivisioni di schermo, allegati o altri contenuti dei clienti simili alle comunicazioni (come risultati dei sondaggi, whiteboard e reazioni) per addestrare modelli di intelligenza artificiale proprietari o di terze parti<\/em>&#8220;.<\/p>\n<p>Diversi utenti hanno tuttavia continuato a esprimere preoccupazione in merito alle autorizzazioni apparentemente ad ampio raggio concesse a Zoom in caso di consenso e molti non hanno ancora compreso esattamente cosa si intende per \u201cContenuto generato dal servizio\u201d.<\/p>\n<h4>Le aziende tecnologiche, i Termini di servizio e il consenso: altre sfide<\/h4>\n<p>\u00c8 importante notare che Zoom non \u00e8 un&#8217;anomalia. Altre aziende utilizzano l&#8217;intelligenza artificiale per le funzioni delle loro piattaforme. Google la utilizza per <a href=\"https:\/\/workspace.google.com\/blog\/product-announcements\/introducing-new-ai-to-help-people-thrive-in-hybrid-work\" rel=\"noopener\" target=\"_blank\">creare trascrizioni<\/a> delle chiamate su Google Meet (con risultati altalenanti). Anche Meta, la casa madre di Facebook, \u00e8 stata scoperta a &#8220;nascondere&#8221; il consenso all&#8217;<a href=\"https:\/\/www.wsj.com\/articles\/metas-targeted-ad-model-faces-restrictions-in-europe-11670335772\" rel=\"noopener\" target=\"_blank\">uso dei dati degli utenti nella pubblicit\u00e0 personalizzata<\/a> nei suoi Termini di servizio nel 2022. Nel gennaio 2023, all&#8217;<a href=\"https:\/\/www.nytimes.com\/2023\/01\/04\/technology\/meta-facebook-eu-gdpr.html\" rel=\"noopener\" target=\"_blank\">azienda \u00e8 stato vietato di utilizzare i dati personali a scopo pubblicitario<\/a> con questo tipo di &#8220;consenso&#8221;, di cui la maggior parte degli utenti era all&#8217;oscuro. Da allora, Meta ha dichiarato di voler cambiare il proprio modello e di richiedere il consenso per la pubblicit\u00e0 nell&#8217;UE.<\/p>\n<p>Altre aziende sono state colte in flagrante nel tentativo di utilizzare tattiche poco trasparenti analoghe. In alcuni casi celavano il &#8220;consenso&#8221; o autorizzazioni discutibili all&#8217;interno dei termini di servizio, sapendo che pochi utenti li leggono con attenzione. Nella migliore delle ipotesi, si tratta di un comportamento disonesto e, nella peggiore, di una pratica illegale, in quanto molte normative richiedono il consenso informato.<\/p>\n<p>La necessit\u00e0 di maggiore chiarezza in tema di addestramento dell&#8217;IA, di contenuti generati dagli utenti sulle piattaforme e di consenso \u00e8 evidente e diventer\u00e0 un problema sempre pi\u00f9 pressante nel tempo.<\/p>\n\n\n<h2 class=\"wp-block-heading\">In che modo le aziende possono utilizzare i dati in modo etico con un valido consenso degli utenti?<\/h2>\n<p>Le aziende che acquisiscono dati per l&#8217;addestramento dell&#8217;IA o per altri usi possono e devono garantire di aver ottenuto il consenso dalle fonti o dagli utenti. In alcuni casi questo potrebbe essere un requisito indispensabile per collaborare con partner o fornitori.<\/p>\n<p>Il consenso sta diventando importante anche per la strategia di monetizzazione. Ad esempio, sempre pi\u00f9 spesso, gli inserzionisti pi\u00f9 importanti chiedono la prova del consenso alla raccolta dei dati degli utenti prima di accettare di collaborare con gli sviluppatori di app.<\/p>\n<p>Le aziende che raccolgono i dati degli utenti dalle proprie piattaforme e dagli utenti per l&#8217;addestramento dell&#8217;IA o per altri scopi hanno la responsabilit\u00e0 diretta di ottenere un consenso valido e di rispettare le leggi sulla protezione dei dati. Esistono diversi modi in cui le aziende possono ottenere la conformit\u00e0 e il consenso valido.<\/p>\n<p><strong>Trasparenza<\/strong>: le leggi sulla privacy richiedono notifiche chiare e accessibili e le aziende devono fornire agli utenti informazioni comprensibili sulle modalit\u00e0 di utilizzo e di elaborazione dei loro dati, incluso l&#8217;addestramento dell&#8217;IA. Man mano che cambia il modo di utilizzare i dati personali, le aziende devono aggiornare le proprie informative sulla privacy, informare gli utenti e, ai sensi di molte leggi sulla privacy, ottenere di nuovo il consenso per i nuovi utilizzi dei dati personali.<\/p>\n<p><strong>Consenso granulare<\/strong>: gli utenti devono poter accettare o rifiutare la raccolta e il trattamento dei propri dati personali con cognizione di causa, ad esempio approvando alcuni tipi di trattamento, come pubblicit\u00e0 mirata o addestramento dell&#8217;IA, ma non altri, come la vendita dei dati. Ci\u00f2 contribuisce a far s\u00ec che le persone siano informate, requisito essenziale per la validit\u00e0 del consenso secondo la maggior parte delle leggi sulla privacy.<\/p>\n<p><strong>Meccanismi intuitivi<\/strong>: cos\u00ec come \u00e8 necessario che le notifiche siano chiare e accessibili, \u00e8 altrettanto importante che gli utenti comprendano facilmente come accettare o rifiutare il consenso. Le informazioni sul trattamento dei dati devono essere disponibili e gli utenti devono avere la possibilit\u00e0 di accettare o rifiutare il consenso a livello granulare. Inoltre, gli utenti devono poter rifiutare il consenso con la stessa facilit\u00e0 con cui lo accettano e, ai sensi di molte leggi sulla privacy, devono anche poter modificare facilmente le proprie preferenze di consenso.<\/p>\n<p>Familiarit\u00e0 con le normative: le varie giurisdizioni prevedono leggi sulla privacy differenti con requisiti e modelli di consenso diversi. \u00c8 importante che le aziende sappiano quali leggi devono rispettare e come farlo. La consultazione o la nomina di un consulente legale qualificato o di un esperto di privacy, ad esempio un responsabile della protezione dei dati (DPO), pu\u00f2 essere di aiuto ed \u00e8 richiesta da alcune leggi sulla privacy. Tale figura aiuta a delineare linee guida e processi, aggiornare le operazioni e gestire la sicurezza dei dati e il relativo trattamento.<\/p>\n\n\n<h2 class=\"wp-block-heading\">Quali diritti hanno gli utenti delle piattaforme online sui loro dati?<\/h2>\n<p>I diritti dei consumatori in relazione ai propri dati personali dipendono da una serie di fattori, tra cui il paese di residenza e le leggi sulla privacy in vigore, la destinazione d&#8217;uso della piattaforma, i dati che l&#8217;utente fornisce o genera sulla stessa e i relativi termini di servizio.<\/p>\n<p>Nell&#8217;Unione europea le aziende che si occupano della raccolta e del trattamento dei dati personali devono ottenere il consenso dell&#8217;utente per svolgere la loro attivit\u00e0. Questo vale anche per le piattaforme di social media, i blog, i siti web governativi o i negozi di e-commerce. I dati degli utenti possono essere raccolti per apprendere come viene utilizzato un sito e migliorarne il funzionamento, per agevolare l&#8217;evasione degli ordini online, per mostrare annunci pubblicitari o per addestrare modelli di IA.<\/p>\n<p>Le piattaforme di tutto il mondo utilizzate per attivit\u00e0 finanziarie o per l&#8217;assistenza sanitaria hanno requisiti pi\u00f9 severi in materia di privacy e sicurezza, in virt\u00f9 del tipo di informazioni che gestiscono, disciplinati da molteplici normative.<\/p>\n<p>In alcune giurisdizioni, \u00e8 comunque permesso mostrare un banner dei cookie in cui l&#8217;utente conferma che, continuando a utilizzare il sito o il servizio, acconsente alla raccolta e all&#8217;utilizzo dei suoi dati personali. Nell&#8217;UE e in altre giurisdizioni, tuttavia, questo non \u00e8 accettabile ed \u00e8 necessario un consenso granulare.<\/p>\n\n\n<h2 class=\"wp-block-heading\">Intelligenza artificiale e cookie<\/h2>\n<p>L&#8217;uso dei cookie online \u00e8 in declino, in quanto esistono tecnologie pi\u00f9 moderne e sofisticate in grado di svolgere l&#8217;attivit\u00e0 dei cookie. La domanda che ci poniamo oggi e ci porremo in futuro non \u00e8 tanto come l&#8217;IA utilizza o pu\u00f2 utilizzare i cookie, quanto in che modo pu\u00f2 accelerarne la sostituzione.<\/p>\n<p>Apple e Mozilla hanno bloccato i cookie di terze parti e Google prevede di smettere di utilizzarli del tutto. I nuovi strumenti e metodi consentono, tra le altre cose, di gestire meglio la privacy e il consenso ai dati, e possono migliorare la qualit\u00e0 dei dati degli utenti.<\/p>\n<p>Gli attuali modelli di consenso ai cookie potrebbero essere inadeguati per l&#8217;IA, poich\u00e9 i sistemi di intelligenza artificiale sono in grado analizzare grandi quantit\u00e0 di dati in tempo reale, in contrasto con gli strumenti che analizzano i dati dai cookie attivi nel tempo. Per ottenere il consenso prima dell&#8217;inizio della raccolta o dell&#8217;utilizzo dei dati, con gli attuali pop-up, l&#8217;utente dovrebbe essere tempestato di banner di consenso con una velocit\u00e0 e una frequenza che ne renderebbero impossibile l&#8217;elaborazione da parte di un essere umano.<\/p>\n<p>I modelli di IA possono consentire annunci pubblicitari pi\u00f9 efficaci o esperienze di utilizzo personalizzate senza affidarsi alla raccolta di informazioni personali identificabili, poich\u00e9 sono in grado di analizzare grandi quantit\u00e0 di dati molto rapidamente e di raggruppare le persone in segmenti di pubblico in base ai comportamenti. Se il sistema non ha bisogno di raccogliere i dati dell&#8217;utente, il consenso, almeno per la raccolta dei dati, potrebbe non essere necessario.<\/p>\n<p>Probabilmente leggi e best practice continuerebbero a richiedere che gli utenti siano informati su come potrebbero essere monitorati e analizzati i loro comportamenti e su come potrebbero essere utilizzate queste informazioni, ad esempio per creare annunci pubblicitari o esperienze di acquisto personalizzati. Ma i dati personali degli utenti non possono essere venduti se non vengono raccolti.<\/p>\n\n\n<h2 class=\"wp-block-heading\">Che cos&#8217;\u00e8 la Normativa sull\u2019IA dell&#8217;UE?<\/h2>\n<p>La <a href=\"https:\/\/www.europarl.europa.eu\/news\/it\/headlines\/society\/20230601STO93804\/normativa-sull-ia-la-prima-regolamentazione-sull-intelligenza-artificiale\" target=\"_blank\" rel=\"noopener\">Normativa sull\u2019IA<\/a> (AI Act) dell&#8217;UE \u00e8 una legge sull&#8217;intelligenza artificiale (IA) proposta dalla Commissione europea. Si tratta della prima legge al mondo per la regolamentazione dell&#8217;intelligenza artificiale a tutto tondo. L&#8217;obiettivo \u00e8 quello di bilanciare gli usi positivi della tecnologia mitigando quelli negativi e codificando dei diritti. Un altro obiettivo consiste nel chiarire le principali domande attuali e future sullo sviluppo dell&#8217;IA e di rendere la legge uno standard globale, come \u00e8 avvenuto con il GDPR.<\/p>\n<p>In base a questa legge, le applicazioni della tecnologia di IA verrebbero assegnate a una di queste categorie:<\/p>\n<p><strong>Rischio inaccettabile<\/strong>: l&#8217;IA con rischi inaccettabili sarebbe completamente vietata, ad esempio il sistema di credito sociale del governo cinese<\/p>\n<p><strong>Alto rischio<\/strong>: intelligenza artificiale con rischi potenziali, consentita se conforme ai requisiti IA e alla valutazione di conformit\u00e0 prevista, ad esempio uno strumento che classifica i candidati a un impiego mediante la scansione dei curriculum<\/p>\n<p><strong>Rischio medio<\/strong>: intelligenza artificiale con obblighi di trasparenza specifici, consentita ma soggetta a requisiti informativi, ad esempio bot che possono essere utilizzati per la personificazione<\/p>\n<p><strong>Rischio minimo o nullo<\/strong>: intelligenza artificiale senza rischi rilevanti, consentita senza restrizioni<\/p>\n<h4>Disposizioni relative al consenso nella Normativa sull\u2019IA<\/h4>\n<p>L&#8217;AI Act \u00e8 attualmente in bozza e pu\u00f2 subire delle variazioni prima di essere convertito in legge. Al momento il consenso dell&#8217;utente e la privacy e la protezione dei dati sono trattati nei relativi statuti su diversi fronti:<\/p>\n<p><strong>Alto rischio<\/strong>: \u00e8 necessario il consenso esplicito per l&#8217;uso di sistemi di IA ad alto rischio, ad esempio infrastrutture critiche, impiego, assistenza sanitaria e forze dell&#8217;ordine.<\/p>\n<p><strong>Trasparenza<\/strong>: i fornitori di IA devono comunicare chiaramente le finalit\u00e0, le capacit\u00e0 e le limitazioni dei sistemi per permettere agli utenti di prendere decisioni e comprendere il potenziale impatto sui loro diritti.<\/p>\n<p><strong>Diritto ai chiarimenti<\/strong>: gli utenti hanno il diritto di ottenere spiegazioni chiare in merito alle decisioni dei sistemi di IA.<\/p>\n<p><strong>Diritto al controllo dell&#8217;utente<\/strong>: gli utenti devono avere la possibilit\u00e0 di rinunciare, disattivare o disinstallare i sistemi di IA, in particolare quando sono in gioco diritti o interessi fondamentali (ai sensi di alcune leggi sulla privacy, gli utenti hanno il diritto di rinunciare al &#8220;processo decisionale automatizzato&#8221;).<\/p>\n<p><strong>Privacy e protezione dei dati<\/strong>: la Normativa sull\u2019IA enfatizza la necessit\u00e0 di minimizzare i dati, limitare le finalit\u00e0 e mettere in atto misure di salvaguardia per proteggere i dati personali quando si utilizzano sistemi di IA, in linea con le normative esistenti sulla privacy dei dati come il GDPR.<\/p>\n\n\n<h2 class=\"wp-block-heading\">Conclusione e futuro dell&#8217;IA e del consenso<\/h2>\n<p>L\u2019intelligenza artificiale non \u00e8 un fenomeno passeggero. Le sue capacit\u00e0 e i suoi casi d&#8217;uso potenziali continueranno a evolvere rapidamente. Si tratta di una sfida dal punto di vista della regolamentazione, in quanto l&#8217;elaborazione e l&#8217;aggiornamento delle leggi in genere hanno tempi molto pi\u00f9 lunghi rispetto alla velocit\u00e0 di sviluppo delle tecnologie.<\/p>\n<p>Tuttavia, gli utenti non devono essere soggetti al principio del &#8220;caveat emptor&#8221;, soprattutto online, per quanto riguarda i nuovi utilizzi dei dati personali e le sfide in tema di privacy. Le autorit\u00e0 di regolamentazione devono elaborare e aggiornare leggi che siano chiare e complete, ma sufficientemente flessibili da essere interpretabili e applicabili nel presente e in futuro.<\/p>\n<p>Le organizzazioni devono sapere a quali normative sulla privacy devono attenersi, conoscerne i contenuti e comprenderne le implicazioni a livello operativo. Tutto questo va monitorato regolarmente e, in caso di variazioni, comunicato chiaramente. Cercare di introdurre modifiche ai termini di utilizzo o di utilizzare i dati raccolti per nuovi scopi senza chiedere nuovamente il consenso dell&#8217;utente \u00e8 un modo immediato per danneggiare la reputazione del marchio, oltre a essere illegale in molte giurisdizioni. L&#8217;acquisizione di maggiori conoscenze in tema di dati personali e privacy da parte dei consumatori imporr\u00e0 alle aziende comunicazioni sempre pi\u00f9 chiare sulla raccolta e sull&#8217;utilizzo dei dati.<\/p>\n<p>Le aziende devono inoltre adottare best practice, come la <a href=\"https:\/\/usercentrics.com\/knowledge-hub\/what-is-privacy-by-design\/\">privacy by design<\/a>, per garantire il rispetto delle persone, che rappresentano la fonte dei loro dati, e della legge. Ci\u00f2 contribuir\u00e0 anche a garantire l&#8217;ottenimento del consenso e la raccolta e l&#8217;utilizzo dei dati limitatamente agli usi consentiti dalla legge per tutte le operazioni, che si tratti di evadere ordini di e-commerce o di addestrare nuovi modelli di IA.<\/p>\n<p>L&#8217;IA \u00e8 solo l&#8217;ultima tecnologia in ordine di tempo ad aver presentato nuove sfide a consumatori, aziende e autorit\u00e0 di regolamentazione. Non \u00e8 la prima e non sar\u00e0 l&#8217;ultima. Ma le best practice per raggiungere la conformit\u00e0, creare fiducia negli utenti e far crescere con successo le aziende (o occuparsi di scienza) continuano a essere le stesse e vanno a vantaggio sia delle organizzazioni sia dei consumatori.<\/p>\n<p>Per ulteriori informazioni, <a href=\"https:\/\/usercentrics.com\/it\/prenota-consulenza\/\">contatta ora i nostri esperti<\/a>.<\/p>\n\n\n\n<p><em>Usercentrics non fornisce consulenza legale e le informazioni sono fornite esclusivamente a scopo educativo. Si consiglia sempre di rivolgersi a consulenti legali o esperti di privacy qualificati per questioni e operazioni relative alla privacy e alla protezione dei dati.<\/em><\/p>\n\n\n","protected":false},"excerpt":{"rendered":"<p>L&#8217;addestramento dei sistemi IA \u00e8 solo l&#8217;ultima frontiera in tema di uso dei dati degli utenti raccolti online dalle aziende. Tuttavia, il modo in cui tali dati vengono utilizzati, il tipo di consenso necessario o come tutto ci\u00f2 sar\u00e0 regolamentato \u00e8 spesso oggetto di dibattito.<\/p>\n","protected":false},"featured_media":3497,"template":"","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"tags":[],"magazine_issue":[],"magazine_tag":[],"resource_tag":[],"class_list":["post-3495","knowledge","type-knowledge","status-publish","has-post-thumbnail","hentry"],"acf":[],"yoast_head":"<title>IA, dati personali e consenso - Usercentrics<\/title>\n<meta name=\"description\" content=\"I dati per l\u2019addestramento dell&#039;IA \u00e8 l&#039;ultima frontiera dell\u2019uso dei dati degli utenti da parte delle aziende, ma che consenso \u00e8 necessario? Scoprilo con Usercentrics.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"IA, dati personali e consenso - Usercentrics\" \/>\n<meta property=\"og:description\" content=\"I dati per l\u2019addestramento dell&#039;IA \u00e8 l&#039;ultima frontiera dell\u2019uso dei dati degli utenti da parte delle aziende, ma che consenso \u00e8 necessario? Scoprilo con Usercentrics.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/\" \/>\n<meta property=\"og:site_name\" content=\"Consent Management Platform (CMP) Usercentrics\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/usercentrics\" \/>\n<meta property=\"article:modified_time\" content=\"2024-09-05T10:08:18+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/usercentrics.com\/wp-content\/uploads\/sites\/5\/2023\/11\/AI-consent.png\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:title\" content=\"IA, dati personali e consenso - Usercentrics\" \/>\n<meta name=\"twitter:description\" content=\"I dati per l\u2019addestramento dell&#039;IA \u00e8 l&#039;ultima frontiera dell\u2019uso dei dati degli utenti da parte delle aziende, ma che consenso \u00e8 necessario? Scoprilo con Usercentrics.\" \/>\n<meta name=\"twitter:image\" content=\"https:\/\/usercentrics.com\/wp-content\/uploads\/sites\/5\/2023\/11\/AI-consent.png\" \/>\n<meta name=\"twitter:site\" content=\"@usercentrics\" \/>\n<meta name=\"twitter:label1\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data1\" content=\"23 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/knowledge-hub\\\/intelligenza-artificiale-ia-e-consenso\\\/\",\"url\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/knowledge-hub\\\/intelligenza-artificiale-ia-e-consenso\\\/\",\"name\":\"IA, dati personali e consenso - Usercentrics\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/knowledge-hub\\\/intelligenza-artificiale-ia-e-consenso\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/knowledge-hub\\\/intelligenza-artificiale-ia-e-consenso\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/wp-content\\\/uploads\\\/sites\\\/5\\\/2023\\\/11\\\/AI-consent.svg?v=430388602638e7ca\",\"datePublished\":\"2023-11-24T07:32:16+00:00\",\"dateModified\":\"2024-09-05T10:08:18+00:00\",\"description\":\"I dati per l\u2019addestramento dell'IA \u00e8 l'ultima frontiera dell\u2019uso dei dati degli utenti da parte delle aziende, ma che consenso \u00e8 necessario? Scoprilo con Usercentrics.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/knowledge-hub\\\/intelligenza-artificiale-ia-e-consenso\\\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/knowledge-hub\\\/intelligenza-artificiale-ia-e-consenso\\\/\"}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/knowledge-hub\\\/intelligenza-artificiale-ia-e-consenso\\\/#primaryimage\",\"url\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/wp-content\\\/uploads\\\/sites\\\/5\\\/2023\\\/11\\\/AI-consent.svg?v=430388602638e7ca\",\"contentUrl\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/wp-content\\\/uploads\\\/sites\\\/5\\\/2023\\\/11\\\/AI-consent.svg?v=430388602638e7ca\",\"caption\":\"I dati per l\u2019addestramento dell'IA \u00e8 l'ultima frontiera dell\u2019uso dei dati degli utenti da parte delle aziende, ma che consenso \u00e8 necessario?\",\"copyrightNotice\":\"\u00a9 Copyright 2026 Usercentrics GmbH\",\"creator\":{\"@type\":\"Organization\",\"name\":\"Usercentrics GmbH\"},\"creditText\":\"Image: Usercentrics GmbH\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/knowledge-hub\\\/intelligenza-artificiale-ia-e-consenso\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Risorse\",\"item\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/resources\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Blog\",\"item\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/knowledge-hub\\\/\"},{\"@type\":\"ListItem\",\"position\":3,\"name\":\"Intelligenza artificiale (IA), dati personali e consenso\",\"item\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/knowledge-hub\\\/intelligenza-artificiale-ia-e-consenso\\\/\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/#website\",\"url\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/\",\"name\":\"Consent Management Platform (CMP) Usercentrics\",\"description\":\"Consent Management Platform (CMP) Usercentrics\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/usercentrics.com\\\/it\\\/?s={search_term_string}\"}}],\"inLanguage\":\"it-IT\"}]}<\/script>","yoast_head_json":{"title":"IA, dati personali e consenso - Usercentrics","description":"I dati per l\u2019addestramento dell'IA \u00e8 l'ultima frontiera dell\u2019uso dei dati degli utenti da parte delle aziende, ma che consenso \u00e8 necessario? Scoprilo con Usercentrics.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/","og_locale":"it_IT","og_type":"article","og_title":"IA, dati personali e consenso - Usercentrics","og_description":"I dati per l\u2019addestramento dell'IA \u00e8 l'ultima frontiera dell\u2019uso dei dati degli utenti da parte delle aziende, ma che consenso \u00e8 necessario? Scoprilo con Usercentrics.","og_url":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/","og_site_name":"Consent Management Platform (CMP) Usercentrics","article_publisher":"https:\/\/www.facebook.com\/usercentrics","article_modified_time":"2024-09-05T10:08:18+00:00","og_image":[{"url":"https:\/\/usercentrics.com\/wp-content\/uploads\/sites\/5\/2023\/11\/AI-consent.png","type":"","width":"","height":""}],"twitter_card":"summary_large_image","twitter_title":"IA, dati personali e consenso - Usercentrics","twitter_description":"I dati per l\u2019addestramento dell'IA \u00e8 l'ultima frontiera dell\u2019uso dei dati degli utenti da parte delle aziende, ma che consenso \u00e8 necessario? Scoprilo con Usercentrics.","twitter_image":"https:\/\/usercentrics.com\/wp-content\/uploads\/sites\/5\/2023\/11\/AI-consent.png","twitter_site":"@usercentrics","twitter_misc":{"Est. reading time":"23 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/","url":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/","name":"IA, dati personali e consenso - Usercentrics","isPartOf":{"@id":"https:\/\/usercentrics.com\/it\/#website"},"primaryImageOfPage":{"@id":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/#primaryimage"},"image":{"@id":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/#primaryimage"},"thumbnailUrl":"https:\/\/usercentrics.com\/it\/wp-content\/uploads\/sites\/5\/2023\/11\/AI-consent.svg?v=430388602638e7ca","datePublished":"2023-11-24T07:32:16+00:00","dateModified":"2024-09-05T10:08:18+00:00","description":"I dati per l\u2019addestramento dell'IA \u00e8 l'ultima frontiera dell\u2019uso dei dati degli utenti da parte delle aziende, ma che consenso \u00e8 necessario? Scoprilo con Usercentrics.","breadcrumb":{"@id":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/"}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/#primaryimage","url":"https:\/\/usercentrics.com\/it\/wp-content\/uploads\/sites\/5\/2023\/11\/AI-consent.svg?v=430388602638e7ca","contentUrl":"https:\/\/usercentrics.com\/it\/wp-content\/uploads\/sites\/5\/2023\/11\/AI-consent.svg?v=430388602638e7ca","caption":"I dati per l\u2019addestramento dell'IA \u00e8 l'ultima frontiera dell\u2019uso dei dati degli utenti da parte delle aziende, ma che consenso \u00e8 necessario?","copyrightNotice":"\u00a9 Copyright 2026 Usercentrics GmbH","creator":{"@type":"Organization","name":"Usercentrics GmbH"},"creditText":"Image: Usercentrics GmbH"},{"@type":"BreadcrumbList","@id":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Risorse","item":"https:\/\/usercentrics.com\/it\/resources\/"},{"@type":"ListItem","position":2,"name":"Blog","item":"https:\/\/usercentrics.com\/it\/knowledge-hub\/"},{"@type":"ListItem","position":3,"name":"Intelligenza artificiale (IA), dati personali e consenso","item":"https:\/\/usercentrics.com\/it\/knowledge-hub\/intelligenza-artificiale-ia-e-consenso\/"}]},{"@type":"WebSite","@id":"https:\/\/usercentrics.com\/it\/#website","url":"https:\/\/usercentrics.com\/it\/","name":"Consent Management Platform (CMP) Usercentrics","description":"Consent Management Platform (CMP) Usercentrics","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/usercentrics.com\/it\/?s={search_term_string}"}}],"inLanguage":"it-IT"}]}},"_links":{"self":[{"href":"https:\/\/usercentrics.com\/it\/wp-json\/wp\/v2\/knowledge\/3495","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/usercentrics.com\/it\/wp-json\/wp\/v2\/knowledge"}],"about":[{"href":"https:\/\/usercentrics.com\/it\/wp-json\/wp\/v2\/types\/knowledge"}],"version-history":[{"count":0,"href":"https:\/\/usercentrics.com\/it\/wp-json\/wp\/v2\/knowledge\/3495\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/usercentrics.com\/it\/wp-json\/wp\/v2\/media\/3497"}],"wp:attachment":[{"href":"https:\/\/usercentrics.com\/it\/wp-json\/wp\/v2\/media?parent=3495"}],"wp:term":[{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/usercentrics.com\/it\/wp-json\/wp\/v2\/tags?post=3495"},{"taxonomy":"magazine_issue","embeddable":true,"href":"https:\/\/usercentrics.com\/it\/wp-json\/wp\/v2\/magazine_issue?post=3495"},{"taxonomy":"magazine_tag","embeddable":true,"href":"https:\/\/usercentrics.com\/it\/wp-json\/wp\/v2\/magazine_tag?post=3495"},{"taxonomy":"resource_tag","embeddable":true,"href":"https:\/\/usercentrics.com\/it\/wp-json\/wp\/v2\/resource_tag?post=3495"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}