Inteligência artificial (IA), dados pessoais e consentimento

O treinamento de sistemas de inteligência artificial (IA) é o uso mais recente que as empresas fazem dos dados de usuários que coletam on-line. Mas como os dados são usados, qual consentimento é necessário ou como eles serão regulamentados nem sempre é claro.
O treinamento de inteligência artificial (IA) é apenas o uso mais recente de dados de usuários.
Blogue / Inteligência artificial (IA), dados pessoais e consentimento
Publicado pela Usercentrics
23 minutos de leitura
nov 24, 2023

A inteligência artificial (IA) parece estar em todos os lugares e tem recebido tanto investimento quanto bastante atenção da mídia. Mas será que a IA é só uma moda passageira? Ou será que vai mudar praticamente toda nossa forma de criar e trabalhar? De quem são os dados de entrada e os resultados?

Acredita-se que o desenvolvimento de IA se apoie nos pilares de algoritmos, hardware e dados. Os dados são o pilar menos “garantido”, e o consentimento do usuário é uma parte importante da equação.

O rápido avanço do treinamento da IA e dos usos dessa tecnologia suscitou preocupações sobre o consentimento do usuário e implicações éticas com relação ao uso dos dados pessoais. Se os dados dos usuários forem usados para treinar a IA, os usuários terão direitos sobre os resultados? As organizações que precisam de dados de treinamento da IA devem obter consentimento para dados já publicados on-line? Para quantos fins granulares os provedores de serviços ou ferramentas de IA devem obter consentimento explícito dos usuários?

O que é a inteligência artificial (IA)?

IA é o desenvolvimento de máquinas que podem executar tarefas que normalmente exigem inteligência humana. Isso inclui áreas como reconhecimento de texto ou fala, solução de problemas e tomada de decisões. O desenvolvimento de IA geralmente requer a entrada de grandes quantidades de dados para ajudar os sistemas a “aprenderem”.

O que é aprendizado de máquina ou machine learning (ML)?

O aprendizado de máquina é um subconjunto da IA que se concentra no desenvolvimento de algoritmos e modelos que permitem que os computadores aprendam com dados e façam previsões ou decisões sem serem explicitamente programados. É uma maneira de os computadores “aprenderem” com exemplos e melhorarem o próprio desempenho ao longo do tempo.

O que são grandes modelos de linguagem ou large language models (LLM)?

Os grandes modelos de linguagem são um avanço recente na pesquisa de IA. Eles têm como objetivo entender e gerar linguagem semelhante à humana. O ChatGPT, da OpenAI, e o Bard, do Google, são exemplos de LLMs disponíveis ao público. Algumas ferramentas desenvolvidas por meio do uso delas podem ser empregadas para SEO, conteúdo de marketing e outros fins comerciais.

O objetivo do treinamento de um LLM é permitir que ele entenda a estrutura, o significado e o contexto da linguagem humana, que, para uma única utilização, permite respostas mais precisas quando consultado pelas pessoas.

Os LLMs são treinados com grandes quantidades de texto de fontes como livros, artigos, sites etc. Até o momento, houve problemas de privacidade de dados com o conteúdo sendo capturado e analisado sem o consentimento dos criadores ou proprietários. Existe a possibilidade de que os dados acessados sejam confidenciais, além de terem sido usados sem consentimento.

O que é o treinamento da IA?

O treinamento da IA, também conhecido como treinamento de aprendizado de máquina, refere-se ao processo de ensino de um sistema de IA para aprender padrões e fazer previsões ou tomar decisões com base nos dados fornecidos a ele. O treinamento é fundamental para o desenvolvimento de sistemas de IA que possam executar tarefas específicas, reconhecer padrões, fornecer informações precisas ou fazer julgamentos conscientes.

O processo de treinamento passa por uma série de etapas. Em resumo, eles começam com a aquisição de dados relevantes e a preparação para o uso e seguem com a seleção do que o modelo fará com conjuntos de dados de treinamento da IA, a entrada e análise de dados. Depois, há um trabalho para fazer resultados ou previsões corresponderem a resultados reais ou melhorar a precisão e garantir que o modelo de IA funcione bem em qualquer conjunto de dados, incluindo dados do mundo real, e não apenas em dados de treinamento da IA. Os modelos de IA têm de passar por todas as etapas antes de estarem prontos para uma utilização mais ampla.

Ambiguidades no uso de conjuntos de dados de treinamento da IA

As organizações podem levantar dúvidas sobre o que define o “uso” de dados pessoais. Quantas alterações são necessárias para que esses dados deixem de ser pessoais? Por exemplo, para colocar os dados em um formato que o modelo de treinamento poderia usar, ele pode ter que ser transformado a partir do formato no qual estava quando foi coletado. Além disso, uma organização precisa obter consentimento para usar dados na hora de treinar modelos de IA mesmo que seja apenas para pesquisa e não para fins comerciais? Talvez ninguém mais, mas os pesquisadores certamente terão acesso a eles.

Quais dados são usados para treinar a IA?

A IA pode ser treinada com muitos tipos de dados. O que os instrutores precisam pode depender do que o sistema deve ser capaz de fazer, por exemplo, responder perguntas, tomar decisões, gerar gráficos ou texto etc.

Alguns tipos comuns de dados de treinamento para IA são:

  • Texto: por exemplo, livros, artigos, sites ou redes sociais; usado para tradução, análise de sentimentos, desenvolvimento de chatbot etc.
  • Imagens: um grande número de imagens rotuladas; usadas para reconhecimento de imagens, detecção de objetos e geração de imagens
  • Áudio: por exemplo, palavras faladas, sons ou padrões acústicos; usado para reconhecimento de voz, assistentes de voz e modelos de análise de áudio
  • Dados de vídeo: sequências de vídeo; usados em análise de vídeo, vigilância, geração de vídeo e para aprender padrões temporais
  • Dados de jogos: dados e interações de jogos; usados para desenvolver jogos e estratégias
  • Dados estruturados: por exemplo, bancos de dados ou planilhas; usados para análise preditiva, sistemas de recomendação ou detecção de fraudes
  • Dados de sensores: câmeras, radares etc.; usados para sistemas de veículos autônomos, automação industrial etc.
  • Dados de saúde: imagens médicas, como raio X e ressonância magnética, registros de pacientes e dados clínicos; usados para assistência em diagnósticos, tratamento e pesquisa
  • Dados financeiros: dados financeiros existentes de mercados e registros de transações; usados para previsão de preço de ações, pontuação de crédito e detecção de fraudes
  • Dados genômicos: sequências de DNA, marcadores genéticos e outros dados biológicos relacionados; usados para medicina personalizada e melhorar a compreensão da genética
  • Dados de simulação: dados gerados por simulações; usados para aprender como os sistemas se comportam sob diferentes condições

Preocupações sobre consentimento envolvendo diferentes tipos de dados de treinamento da IA

Muitos desses tipos de dados de treinamento de IA são explicitamente mencionados nas leis de privacidade de dados. Muitos são tipos de dados pessoais, e alguns são dados PII (informações de identificação pessoal). Alguns desses tipos de dados também são categorizados de acordo com as leis de privacidade como confidenciais, o que significa que eles podem causar maiores danos se acessados ou usados sem autorização.

Informações de saúde, genômicas e financeiras são exemplos particularmente importantes de dados pessoais confidenciais. Os dados confidenciais geralmente exigem o consentimento do usuário para coletar ou usar de acordo com a lei de privacidade de dados, enquanto os dados pessoais, mas não confidenciais, às vezes só exigem consentimento antes de serem vendidos ou usados para publicidade direcionada, criação de perfis etc.

Também é importante observar que nem todos os lotes de dados de treinamento são iguais. Qualidade, quantidade, diversidade e permissão de uso podem variar muito. Isso pode ter um impacto grande no “aprendizado” e no desempenho dos sistemas e significar que é necessário consentimento para usar alguns tipos de dados no lote de treinamento, mas não para outros. Dados mal equilibrados ou não diversificados também podem produzir resultados distorcidos, às vezes com resultados ofensivos ou legalmente precários, como sistemas que produzem recomendações discriminatórias ou identificação imprecisa.

Muitas leis de privacidade estabelecem que os titulares dos dados têm o direito de exigir que seus dados sejam corrigidos pela entidade que os coletou se estiverem incompletos ou imprecisos. E se seus dados estiverem corretos, mas forem usados para produzir resultados imprecisos? Quais são os direitos? Os usos dessas tecnologias representam muitas questões complexas para os reguladores que incluem a ética da automação.

Consentimento, IA e dados pessoais

A Gartner, empresa de pesquisa, previu que, até o final de 2023, 65% da população mundial terá seus dados pessoais protegidos por regulamentações de privacidade de dados. Até 2024, a previsão é de que o número será de 75%. As únicas coisas que mudam mais rapidamente do que a cobertura de regulamentação de privacidade são a própria tecnologia e as demandas de dados. Isso alimenta de tudo, desde inovações científicas até campanhas de marketing.

Mas os dados não são como o ar. Não existem livremente para qualquer pessoa usar. Muitos dos dados existentes e aos quais as organizações desejam ter acesso são gerados pelas pessoas, que, portanto, têm direitos sobre proteção e acesso a eles. Os consumidores estão cada vez mais familiarizados com a privacidade de dados e seus direitos em relação aos dados pessoais. Mesmo que não entendam como os sistemas de IA e outras funções funcionam em detalhes.

Com a aprovação de mais legislação de privacidade em todo o mundo, as organizações precisam ser cada vez mais cuidadosas ao cumprir suas responsabilidades de privacidade de dados. Multas potencialmente enormes, como algumas das aplicadas ao abrigo do Regulamento Geral de Proteção de Dados (RGPD) da União Europeia, também mostram como é importante levar a sério as normas de privacidade e os direitos dos consumidores.

Importa de onde vêm os conjuntos de dados de treinamento de IA?

Existem cada vez mais potenciais fontes de dados de usuários, especialmente on-line, como de plataformas e aplicativos sociais. Também pode ser complicado para as empresas determinarem suas responsabilidades de privacidade de dados quando ela está sediada em um só lugar, mas tem usuários em todo o mundo. Isso pode tornar uma organização responsável por cumprir várias normas de privacidade diferentes. Muitas dessas leis são extraterritoriais, e nesse caso só importa onde os usuários estejam localizados em relação a direitos e proteções, não às empresas.

Muitos consumidores não sabem quantos dados criam diariamente, quem pode ter acesso a eles e como podem ser usados. As crianças podem não prestar atenção ou compreender totalmente a geração ou o processamento de dados do usuário, embora a maioria das leis de privacidade de dados exija proteções e consentimento extras para o acesso aos dados de menores de idade. Esse consentimento geralmente deve ser obtido de um dos pais ou de um responsável legal se a criança estiver abaixo de um determinado limite de idade determinado por lei.

Algumas leis de privacidade de dados não cobrem dados pessoais que as pessoas disponibilizam publicamente, o que pode incluir aqueles gerados em plataformas sociais. Talvez publicações, comentários e fotos não sejam uma grande preocupação de privacidade para alguns. Mas e quanto a mensagens particulares ou chats? Eles podem conter material muito mais sensível.

Depois que os dados forem coletados, idealmente com o consentimento do usuário, as pessoas devem saber o que acontece com eles. É uma condição da maioria das leis de privacidade que o controlador, a entidade responsável por coletar e usar os dados, avise aos usuários sobre quais dados serão coletados e para quais finalidades. Se esses objetivos mudarem, sob muitas leis de privacidade, o controlador deverá notificar os usuários e obter um novo consentimento. Com o treinamento da IA, isso pode exigir muitos detalhes granulares e pode mudar com frequência.

Desafios para obter o consentimento de IA dos usuários

Como os sistemas de IA ainda são, muitas vezes, experimentais e com resultados imprevisíveis, podem dificultar alguns requisitos de privacidade de dados. As organizações podem notificar os usuários sobre como desejam usar os dados, mas é possível que os dados realmente sejam usados, ou como eles podem ser alterados, ou os resultados do uso podem ser diferentes.

Embora os usuários devam ser notificados antes que qualquer novo propósito seja implementado, aqueles que fazem o trabalho podem não saber da mudança até que ela tenha ocorrido. Se os dados estiverem sendo analisados em grandes quantidades em tempo real, os mecanismos tradicionais para obter o consentimento do usuário, como banners de cookies, podem não ser rápidos ou granulares o suficiente.

Os sistemas de IA voltados para o usuário podem ser potencialmente manipuladores, resultando no fornecimento de informações que os usuários não preveem. Os sistemas também podem apresentar conexões mais sofisticadas e nebulosas entre os pontos de dados, permitindo a identificação e o perfil em um nível que não vimos anteriormente. Isso pode transformar praticamente todos os dados em dados pessoais identificáveis ou confidenciais. Os requisitos de consentimento atuais podem não resolver isso adequadamente.

Embora as funções de interface do usuário manipuladoras e de experiência do usuário comumente conhecidas como padrões escuros estejam cada vez mais reprovadas e, em alguns casos, tenham sofrido regulamentação, as pessoas tendem a se concentrar em táticas que já são conhecidas. O design responsivo pode permitir o desenvolvimento de maneiras novas e mais sofisticadas de manipular usuários.

A controvérsia do Zoom e o consentimento do usuário

A popular plataforma de videoconferência Zoom atualizou seus termos de serviço (TOS) em março de 2023, o que é comum para uma empresa. No entanto, duas seções pareciam ter amplas implicações para as permissões do Zoom em relação aos dados do usuário, chamados de “dados gerados pelo Serviço”, que incluem telemetria, uso do produto, diagnóstico e dados ou conteúdo semelhantes gerados com o uso do Zoom e que a empresa coleta durante o uso da plataforma.

Os termos de serviço atualizados forneciam todos os direitos aos dados gerados pelo Serviço para Zoom, incluindo direitos de modificação, distribuição, processo, compartilhamento, manutenção e armazenamento dos dados “para qualquer finalidade, na medida e na extensão permitida pela lei aplicável”. O direito do Zoom de usar dados do usuário para aprendizado de máquina e inteligência artificial, incluindo modelos e algoritmos de treinamento e ajuste, foi mencionado explicitamente.

Portanto, o Zoom pode coletar uma variedade de dados do usuário do uso de sua plataforma e aplicá-los a muitas finalidades, incluindo treinamento em IA, sem a necessidade de obter o consentimento explícito dos usuários ou permitir que eles optem por não participar.

Isso pode ser legal de acordo com as leis de privacidade atuais nos Estados Unidos, onde a Zoom está sediada (o país não tem uma única lei federal, mas uma série de leis estaduais), mas não é legal nos termos do RGPD da União Europeia (UE), o que exige o consentimento para ser “informado”, entre outros requisitos (Considerando 32 RGPD).

De acordo com o RGPD, para que o consentimento seja válido, ele também deve ser obtido antes do início da coleta de dados e requer notificação clara e compreensível aos usuários. Os termos de serviço do Zoom são um tanto enigmáticos, como os de muitas outras empresas.

Resposta do Zoom à controvérsia de mudança de termos de serviço

A reação à descoberta e cobertura pública desta alteração de termos de serviço foi substancial. As empresas estavam preocupadas com o fato de que as informações proprietárias de reuniões confidenciais poderiam ser usadas sem consentimento. Ou que o Zoom teria direito sobre seu conteúdo criativo, como entrevistas para vídeos ou podcasts.

Algumas empresas dos EUA que usam o Zoom para fins relacionados à saúde ficaram alarmadas devido a preocupações sobre violações de privacidade da Health Insurance Portability and Accountability Act (HIPAA). Por exemplo, havia receios de a empresa ter direitos de posse e uso do conteúdo das sessões de terapia das pessoas. Esses usos não eram necessariamente a intenção da empresa para o uso de dados, mas a percepção pública é poderosa.

O Zoom respondeu à reação com outra atualização dos termos de serviço feita para esclarecer o uso de dados, afirmando que não treinaria seus modelos de IA com conteúdo de áudio, vídeo ou chat dos clientes sem antes obter o consentimento.

Ela também adicionou a linha na seção 10.2 que afirma: “A Zoom não usa nenhum de seus áudios, vídeos, chats, compartilhamentos de tela, anexos ou outras comunicações semelhantes ao Conteúdo do cliente (como resultados de enquetes, quadro de compartilhamento e reações) para treinar o Zoom ou modelos de inteligência artificial de terceiros.

No entanto, alguns usuários ainda expressaram preocupação com as permissões aparentemente abrangentes concedidas ao Zoom se o consentimento foi fornecido, e muitos ainda não estão claros sobre exatamente o que o Conteúdo gerado pelo Serviço inclui.

Outros desafios com empresas de tecnologia, termos de uso e consentimento

É importante observar que o Zoom não está sozinho. Outras empresas usam IA nas plataformas. O Google o usa para criar transcrições de chamadas do Google Meet (com resultados de qualidade variável). Também foi descoberto que a Meta, empresa controladora do Facebook, “ocultou” o consentimento para o uso de dados do usuário em publicidade personalizada nos termos de uso de 2022. Em janeiro de 2023, a empresa foi proibida de usar dados pessoais para publicidade com este tipo de “consentimento”, dos quais a maioria dos usuários não estava completamente ciente. A Meta afirmou que mudaria seu modelo e solicitaria o consentimento para a publicidade na UE.

Outras empresas foram pegas tentando táticas semelhantes de não transparência. Alguns foram pegos ocultando o “consentimento” ou inserindo permissões questionáveis em seus termos de serviço, pois sabem que poucos usuários leem essas informações com cuidado. Essa é uma prática ruim na melhor das hipóteses, e ilegal na pior, já que muitas regulamentações exigem consentimento para serem informadas.

Está mais do que evidente que a necessidade por mais clareza sobre treinamento da IA e o conteúdo gerado por usuários nas plataformas (e obviamente o consentimento) são situações que demandarão cada vez mais atenção daqui pra frente.

Como as empresas podem usar os dados de forma ética com um consentimento de usuário válido?

As empresas que adquirem dados para treinamento da IA ou outros usos podem e devem garantir que o consentimento tenha sido obtido das fontes ou dos usuários. Em alguns casos, pode ser um requisito para fazer negócios com parceiros ou fornecedores.

O consentimento também está se tornando importante para a estratégia de monetização. Por exemplo, cada vez mais, anunciantes premium insistem na prova de consentimento para a coleta de dados de usuários antes de fazer uma parceria com desenvolvedores de aplicativos.

As empresas que coletam dados de usuários de suas próprias plataformas e usuários para treinamento da IA ou outros usos têm responsabilidade direta em obter consentimento válido e cumprir as leis de proteção de dados. Existem várias maneiras de as empresas obterem conformidade e consentimento válido.

Transparência: as leis de privacidade exigem notificações claras e acessíveis, e as empresas devem fornecer informações compreensíveis aos usuários sobre como os dados do usuário serão usados e processados, inclusive para treinamento em IA. À medida que os usos dos dados pessoais mudam, as empresas precisam atualizar seus avisos de privacidade, informar os usuários e, sob muitas leis de privacidade, obter novo consentimento para os novos usos dos dados pessoais.

Consentimento granular: os usuários devem ser capazes de aceitar ou recusar a coleta e o processamento de seus dados pessoais, mas devem ser capazes de fazê-lo em um nível detalhado, por exemplo, aprovar alguns tipos de processamento, como publicidade direcionada ou treinamento em IA, mas não outros, como a venda dos dados. Isso também ajuda a garantir que as pessoas sejam informadas, o que é uma exigência de consentimento para serem válidas de acordo com a maioria das leis de privacidade.

Mecanismos fáceis de usar: assim como as notificações devem ser claras e acessíveis, a maneira como os usuários aceitam ou recusam o consentimento deve ser fácil de entender e acessar. As informações para os usuários sobre o processamento de dados devem estar disponíveis, bem como a capacidade de consentir ou recusar em um nível granular. Além disso, aceitar ou recusar o consentimento devem ser ambas práticas fáceis e, de acordo com muitas leis de privacidade, os usuários também devem ser capazes de alterar facilmente suas preferências de consentimento.

Familiaridade regulatória: diferentes jurisdições têm diferentes leis de privacidade com diferentes requisitos e modelos de consentimento. É importante que as empresas saibam quais leis precisam cumprir e como fazê-lo. Pode ser importante consultar ou nomear um consultor jurídico qualificado ou um especialista em privacidade, por exemplo, um responsável pela proteção de dados (DPO), que também é exigido por algumas leis de privacidade. Esse profissional ajuda a estabelecer diretrizes e processos, atualizar operações e gerenciar a segurança de dados e processamento.

Quais direitos os usuários de plataformas on-line têm sobre seus dados?

Os direitos dos consumidores em relação aos seus dados pessoais dependem de vários fatores, incluindo onde o usuário vive e quais leis de privacidade estão em vigor, para que serve a plataforma e quais dados o usuário está fornecendo ou gerando sobre ela, e quais são os termos de serviço da plataforma.

Na União Europeia, as empresas que coletam e processam dados pessoais devem obter o consentimento do usuário antes de fazê-lo. Isso se aplica igualmente às redes sociais, a blogs, a sites do governo ou a lojas de comércio eletrônico. Os dados dos usuários podem ser coletados para saber como as pessoas usam um site e melhorar seu funcionamento. Ou para permitir a realização quando compram algo on-line, exibem anúncios ou treinam modelos de IA.

Plataformas em todo o mundo que são usadas para atividades financeiras ou assistência médica têm requisitos mais rígidos de privacidade e segurança sob várias regulamentações devido aos tipos de informações com que lidam.

Em algumas jurisdições, ainda é permitido exibir um banner de cookies que diz que você consente com a coleta e o uso de seus dados pessoais simplesmente ao continuar usando o site ou serviço. Mas, na UE e em outras jurisdições, isso não é aceitável e é necessário um consentimento granular.

IA e cookies

O uso de cookies on-line está diminuindo, pois há tecnologias mais novas e melhores para realizar as ações que antes eram feitas pelos cookies. A pergunta de hoje e de agora em diante tem menos a ver com como a IA usa cookies, ou pode fazer isso, e mais com como a IA pode acelerar a substituição de cookies.

A Apple e a Mozilla bloquearam cookies de terceiros, e o Google planeja aposentá-los totalmente. Novas ferramentas e métodos também permitem melhor privacidade e consentimento dos dados e podem resultar em dados de usuário de maior qualidade.

Os modelos atuais de consentimento de cookies podem não ser suficientes para cobrir o uso de IA, já que os sistemas de IA podem analisar grandes quantidades de dados em tempo real, em vez de ferramentas que analisam dados de cookies ativos ao longo do tempo. Para que o consentimento seja obtido antes do início da coleta ou do uso de dados, com pop-ups atuais, o usuário teria que ser bombardeado com banners de consentimento mais rápido e com mais frequência do que um ser humano poderia processá-los.

Os modelos de IA podem permitir anúncios mais eficazes ou experiências de usuário personalizadas sem depender da coleta de informações de identificação pessoal, pois eles podem analisar grandes quantidades de dados muito rapidamente para agrupar pessoas em públicos com base em comportamentos. Se o sistema não precisar coletar dados do usuário, talvez não seja necessário consentimento, pelo menos para a coleta de dados.

É provável que as leis e as práticas recomendadas ainda exijam que os usuários sejam notificados sobre como seus comportamentos podem ser rastreados e analisados, e para o que essa análise poderia ser usada, por exemplo, em anúncios personalizados ou experiências de compra. Mas os dados pessoais das pessoas não poderiam ser vendidos se nunca tivessem sido coletados.

O que é a Lei AI (AI Act) da UE?

A Lei AI da UE é uma lei sobre inteligência artificial (IA) proposta pela Comissão Europeia. É a primeira lei abrangente no mundo a regulamentar a IA. O objetivo é equilibrar os usos positivos da tecnologia, mitigar os negativos e codificar os direitos. Há também o objetivo de esclarecer muitas perguntas atuais e futuras sobre o desenvolvimento de IA e tornar a Lei um padrão global à medida que o RGPD se estabelece.

A lei atribuiria aplicações da tecnologia de IA a uma entre várias categorias:

Risco inaceitável: IA com riscos inaceitáveis seria totalmente proibida, por exemplo, a ferramenta de pontuação social do governo chinês

Alto risco: IA com riscos potenciais, permitida com base na conformidade com os requisitos de IA e avaliação de conformidade prevista, por exemplo, uma ferramenta que classifica candidatos a emprego por meio de verificações de currículos

Risco médio: IA com obrigações específicas de transparência, permitida, mas sujeita a requisitos de informações, por exemplo, bots que podem ser usados para representação

Risco mínimo ou nulo: IA sem riscos notáveis, permitida sem restrições

Disposições de consentimento na Lei de IA

O projeto da Lei de IA está atualmente em um estado preliminar e pode mudar antes de se tornar lei. Atualmente, o consentimento do usuário e a privacidade e proteção dos dados são tratados em seus estatutos em várias frentes:

Alto risco: o consentimento explícito é necessário para o uso de sistemas de IA de alto risco, por exemplo, infraestrutura crítica, emprego, saúde e aplicação da lei.

Transparência: os provedores de IA devem fornecer informações claras sobre a finalidade, os recursos e as limitações previstos dos sistemas para garantir que os usuários sejam informados a fim de tomar decisões e compreender os possíveis impactos sobre seus direitos.

Direito à explicação: os usuários têm o direito de obter explicações relevantes sobre as decisões dos sistemas de IA.

Direito ao controle do usuário: os usuários devem ter a capacidade de cancelar, desativar ou desinstalar sistemas de IA, especialmente quando direitos ou interesses fundamentais estão em jogo (de acordo com algumas leis de privacidade, os usuários têm o direito de optar por não tomar decisões automatizadas).

Proteção de dados e privacidade: a Lei de IA enfatiza a necessidade de minimização de dados, limitação de finalidade e proteções para proteger dados pessoais ao usar sistemas de IA e se alinha às regulamentações de privacidade de dados existentes, como o RGPD.

Conclusão e futuro da IA e do consentimento

A tecnologia de IA está aqui para ficar. Seus recursos e possíveis casos de uso continuarão evoluindo rapidamente. Este é um desafio para a regulamentação, pois a criação e atualização de leis tende a acontecer muito mais lentamente do que a velocidade com que as tecnologias se desenvolvem.

No entanto, os usuários não devem se deparar com um “vazio de advertência”, especialmente on-line, com relação a novos usos para seus dados pessoais e desafios para sua privacidade. Os reguladores devem elaborar e atualizar leis que sejam claras e abrangentes, mas suficientemente flexíveis para serem interpretáveis e aplicáveis hoje e no futuro.

As organizações precisam estar claras sobre quais normas de privacidade devem cumprir, o que estipulam e o que isso significa para suas operações. Isso precisa ser revisado regularmente à medida que as operações mudam e claramente comunicado. Tentar introduzir alterações nos termos de uso ou usar os dados coletados para novos fins sem obter o consentimento do novo usuário é uma maneira fácil de prejudicar a reputação da marca, além de ser ilegal em muitas jurisdições. À medida que os consumidores ficam ainda mais familiarizados com seus dados e privacidade, as empresas terão que ser mais claras, não menos, sobre coleta e uso de dados.

As empresas também devem implementar práticas recomendadas, como privacidade por padrão, para garantir que estejam respeitando as pessoas, a fonte de seus dados, e em conformidade com a lei. Isso também ajudará a garantir que o consentimento seja obtido e que a coleta e o uso de dados sejam limitados a subsídios legais para todas as operações, seja no atendimento de pedidos de comércio eletrônico ou no treinamento de novos modelos de IA.

A IA é apenas a mais recente tecnologia a trazer novos desafios para consumidores, empresas e reguladores. Não é a primeiro nem será a última. Mas as melhores práticas para alcançar a conformidade, obter a confiança dos usuários e expandir com sucesso as empresas (ou fazer ciência) continuam a ser as mesmas e a servir bem as organizações e os consumidores.

Para saber mais, fale com nossos especialistas hoje mesmo.

A Usercentrics não fornece consultoria jurídica, e as informações são fornecidas apenas para fins educacionais. Recomendamos sempre obter orientação jurídica qualificada ou a assistência de especialistas em privacidade em relação a questões e operações de privacidade e proteção de dados.