O treinamento de inteligência artificial (IA) é apenas o uso mais recente de dados de usuários.
Home Inteligência artificial (IA), dados pessoais e consentimento

Inteligência artificial (IA), dados pessoais e consentimento

O treinamento de sistemas de inteligência artificial (IA) é o uso mais recente que as empresas fazem dos dados de usuários que coletam on-line. Mas como os dados são usados, qual consentimento é necessário ou como eles serão regulamentados nem sempre é claro.
by Usercentrics
novembro 24, 2023
O treinamento de inteligência artificial (IA) é apenas o uso mais recente de dados de usuários.
Table of contents
Mostrar mais Mostrar menos

A inteligência artificial (IA) parece estar em todos os lugares e tem recebido tanto investimento quanto bastante atenção da mídia. Mas será que a IA é só uma moda passageira? Ou será que vai mudar praticamente toda nossa forma de criar e trabalhar? De quem são os dados de entrada e os resultados?

Acredita-se que o desenvolvimento de IA se apoie nos pilares de algoritmos, hardware e dados. Os dados são o pilar menos “garantido”, e o consentimento do usuário é uma parte importante da equação.

O rápido avanço do treinamento da IA e dos usos dessa tecnologia suscitou preocupações sobre o consentimento do usuário e implicações éticas com relação ao uso dos dados pessoais. Se os dados dos usuários forem usados para treinar a IA, os usuários terão direitos sobre os resultados? As organizações que precisam de dados de treinamento da IA devem obter consentimento para dados já publicados on-line? Para quantos fins granulares os provedores de serviços ou ferramentas de IA devem obter consentimento explícito dos usuários?

O que é a inteligência artificial (IA)?

IA é o desenvolvimento de máquinas que podem executar tarefas que normalmente exigem inteligência humana. Isso inclui áreas como reconhecimento de texto ou fala, solução de problemas e tomada de decisões. O desenvolvimento de IA geralmente requer a entrada de grandes quantidades de dados para ajudar os sistemas a “aprenderem”.

O que é aprendizado de máquina ou machine learning (ML)?

O aprendizado de máquina é um subconjunto da IA que se concentra no desenvolvimento de algoritmos e modelos que permitem que os computadores aprendam com dados e façam previsões ou decisões sem serem explicitamente programados. É uma maneira de os computadores “aprenderem” com exemplos e melhorarem o próprio desempenho ao longo do tempo.

O que são grandes modelos de linguagem ou large language models (LLM)?

Os grandes modelos de linguagem são um avanço recente na pesquisa de IA. Eles têm como objetivo entender e gerar linguagem semelhante à humana. O ChatGPT, da OpenAI, e o Bard, do Google, são exemplos de LLMs disponíveis ao público. Algumas ferramentas desenvolvidas por meio do uso delas podem ser empregadas para SEO, conteúdo de marketing e outros fins comerciais.

O objetivo do treinamento de um LLM é permitir que ele entenda a estrutura, o significado e o contexto da linguagem humana, que, para uma única utilização, permite respostas mais precisas quando consultado pelas pessoas.

Os LLMs são treinados com grandes quantidades de texto de fontes como livros, artigos, sites etc. Até o momento, houve problemas de privacidade de dados com o conteúdo sendo capturado e analisado sem o consentimento dos criadores ou proprietários. Existe a possibilidade de que os dados acessados sejam confidenciais, além de terem sido usados sem consentimento.

O que é o treinamento da IA?

O treinamento da IA, também conhecido como treinamento de aprendizado de máquina, refere-se ao processo de ensino de um sistema de IA para aprender padrões e fazer previsões ou tomar decisões com base nos dados fornecidos a ele. O treinamento é fundamental para o desenvolvimento de sistemas de IA que possam executar tarefas específicas, reconhecer padrões, fornecer informações precisas ou fazer julgamentos conscientes.

O processo de treinamento passa por uma série de etapas. Em resumo, eles começam com a aquisição de dados relevantes e a preparação para o uso e seguem com a seleção do que o modelo fará com conjuntos de dados de treinamento da IA, a entrada e análise de dados. Depois, há um trabalho para fazer resultados ou previsões corresponderem a resultados reais ou melhorar a precisão e garantir que o modelo de IA funcione bem em qualquer conjunto de dados, incluindo dados do mundo real, e não apenas em dados de treinamento da IA. Os modelos de IA têm de passar por todas as etapas antes de estarem prontos para uma utilização mais ampla.

Ambiguidades no uso de conjuntos de dados de treinamento da IA

As organizações podem levantar dúvidas sobre o que define o “uso” de dados pessoais. Quantas alterações são necessárias para que esses dados deixem de ser pessoais? Por exemplo, para colocar os dados em um formato que o modelo de treinamento poderia usar, ele pode ter que ser transformado a partir do formato no qual estava quando foi coletado. Além disso, uma organização precisa obter consentimento para usar dados na hora de treinar modelos de IA mesmo que seja apenas para pesquisa e não para fins comerciais? Talvez ninguém mais, mas os pesquisadores certamente terão acesso a eles.

Quais dados são usados para treinar a IA?

A IA pode ser treinada com muitos tipos de dados. O que os instrutores precisam pode depender do que o sistema deve ser capaz de fazer, por exemplo, responder perguntas, tomar decisões, gerar gráficos ou texto etc.

Alguns tipos comuns de dados de treinamento para IA são:

  • Texto: por exemplo, livros, artigos, sites ou redes sociais; usado para tradução, análise de sentimentos, desenvolvimento de chatbot etc.
  • Imagens: um grande número de imagens rotuladas; usadas para reconhecimento de imagens, detecção de objetos e geração de imagens
  • Áudio: por exemplo, palavras faladas, sons ou padrões acústicos; usado para reconhecimento de voz, assistentes de voz e modelos de análise de áudio
  • Dados de vídeo: sequências de vídeo; usados em análise de vídeo, vigilância, geração de vídeo e para aprender padrões temporais
  • Dados de jogos: dados e interações de jogos; usados para desenvolver jogos e estratégias
  • Dados estruturados: por exemplo, bancos de dados ou planilhas; usados para análise preditiva, sistemas de recomendação ou detecção de fraudes
  • Dados de sensores: câmeras, radares etc.; usados para sistemas de veículos autônomos, automação industrial etc.
  • Dados de saúde: imagens médicas, como raio X e ressonância magnética, registros de pacientes e dados clínicos; usados para assistência em diagnósticos, tratamento e pesquisa
  • Dados financeiros: dados financeiros existentes de mercados e registros de transações; usados para previsão de preço de ações, pontuação de crédito e detecção de fraudes
  • Dados genômicos: sequências de DNA, marcadores genéticos e outros dados biológicos relacionados; usados para medicina personalizada e melhorar a compreensão da genética
  • Dados de simulação: dados gerados por simulações; usados para aprender como os sistemas se comportam sob diferentes condições

 

Preocupações sobre consentimento envolvendo diferentes tipos de dados de treinamento da IA

Muitos desses tipos de dados de treinamento de IA são explicitamente mencionados nas leis de privacidade de dados. Muitos são tipos de dados pessoais, e alguns são dados PII (informações de identificação pessoal). Alguns desses tipos de dados também são categorizados de acordo com as leis de privacidade como confidenciais, o que significa que eles podem causar maiores danos se acessados ou usados sem autorização.

Informações de saúde, genômicas e financeiras são exemplos particularmente importantes de dados pessoais confidenciais. Os dados confidenciais geralmente exigem o consentimento do usuário para coletar ou usar de acordo com a lei de privacidade de dados, enquanto os dados pessoais, mas não confidenciais, às vezes só exigem consentimento antes de serem vendidos ou usados para publicidade direcionada, criação de perfis etc.

Também é importante observar que nem todos os lotes de dados de treinamento são iguais. Qualidade, quantidade, diversidade e permissão de uso podem variar muito. Isso pode ter um impacto grande no “aprendizado” e no desempenho dos sistemas e significar que é necessário consentimento para usar alguns tipos de dados no lote de treinamento, mas não para outros. Dados mal equilibrados ou não diversificados também podem produzir resultados distorcidos, às vezes com resultados ofensivos ou legalmente precários, como sistemas que produzem recomendações discriminatórias ou identificação imprecisa.

Muitas leis de privacidade estabelecem que os titulares dos dados têm o direito de exigir que seus dados sejam corrigidos pela entidade que os coletou se estiverem incompletos ou imprecisos. E se seus dados estiverem corretos, mas forem usados para produzir resultados imprecisos? Quais são os direitos? Os usos dessas tecnologias representam muitas questões complexas para os reguladores que incluem a ética da automação.

Consentimento, IA e dados pessoais

A Gartner, empresa de pesquisa, previu que, até o final de 2023, 65% da população mundial terá seus dados pessoais protegidos por regulamentações de privacidade de dados. Até 2024, a previsão é de que o número será de 75%. As únicas coisas que mudam mais rapidamente do que a cobertura de regulamentação de privacidade são a própria tecnologia e as demandas de dados. Isso alimenta de tudo, desde inovações científicas até campanhas de marketing.

Mas os dados não são como o ar. Não existem livremente para qualquer pessoa usar. Muitos dos dados existentes e aos quais as organizações desejam ter acesso são gerados pelas pessoas, que, portanto, têm direitos sobre proteção e acesso a eles. Os consumidores estão cada vez mais familiarizados com a privacidade de dados e seus direitos em relação aos dados pessoais. Mesmo que não entendam como os sistemas de IA e outras funções funcionam em detalhes.

Com a aprovação de mais legislação de privacidade em todo o mundo, as organizações precisam ser cada vez mais cuidadosas ao cumprir suas responsabilidades de privacidade de dados. Multas potencialmente enormes, como algumas das aplicadas ao abrigo do Regulamento Geral de Proteção de Dados (RGPD) da União Europeia, também mostram como é importante levar a sério as normas de privacidade e os direitos dos consumidores.

Importa de onde vêm os conjuntos de dados de treinamento de IA?

Existem cada vez mais potenciais fontes de dados de usuários, especialmente on-line, como de plataformas e aplicativos sociais. Também pode ser complicado para as empresas determinarem suas responsabilidades de privacidade de dados quando ela está sediada em um só lugar, mas tem usuários em todo o mundo. Isso pode tornar uma organização responsável por cumprir várias normas de privacidade diferentes. Muitas dessas leis são extraterritoriais, e nesse caso só importa onde os usuários estejam localizados em relação a direitos e proteções, não às empresas.

Muitos consumidores não sabem quantos dados criam diariamente, quem pode ter acesso a eles e como podem ser usados. As crianças podem não prestar atenção ou compreender totalmente a geração ou o processamento de dados do usuário, embora a maioria das leis de privacidade de dados exija proteções e consentimento extras para o acesso aos dados de menores de idade. Esse consentimento geralmente deve ser obtido de um dos pais ou de um responsável legal se a criança estiver abaixo de um determinado limite de idade determinado por lei.

Algumas leis de privacidade de dados não cobrem dados pessoais que as pessoas disponibilizam publicamente, o que pode incluir aqueles gerados em plataformas sociais. Talvez publicações, comentários e fotos não sejam uma grande preocupação de privacidade para alguns. Mas e quanto a mensagens particulares ou chats? Eles podem conter material muito mais sensível.

Depois que os dados forem coletados, idealmente com o consentimento do usuário, as pessoas devem saber o que acontece com eles. É uma condição da maioria das leis de privacidade que o controlador, a entidade responsável por coletar e usar os dados, avise aos usuários sobre quais dados serão coletados e para quais finalidades. Se esses objetivos mudarem, sob muitas leis de privacidade, o controlador deverá notificar os usuários e obter um novo consentimento. Com o treinamento da IA, isso pode exigir muitos detalhes granulares e pode mudar com frequência.

Desafios para obter o consentimento de IA dos usuários

Como os sistemas de IA ainda são, muitas vezes, experimentais e com resultados imprevisíveis, podem dificultar alguns requisitos de privacidade de dados. As organizações podem notificar os usuários sobre como desejam usar os dados, mas é possível que os dados realmente sejam usados, ou como eles podem ser alterados, ou os resultados do uso podem ser diferentes.

Embora os usuários devam ser notificados antes que qualquer novo propósito seja implementado, aqueles que fazem o trabalho podem não saber da mudança até que ela tenha ocorrido. Se os dados estiverem sendo analisados em grandes quantidades em tempo real, os mecanismos tradicionais para obter o consentimento do usuário, como banners de cookies, podem não ser rápidos ou granulares o suficiente.

Os sistemas de IA voltados para o usuário podem ser potencialmente manipuladores, resultando no fornecimento de informações que os usuários não preveem. Os sistemas também podem apresentar conexões mais sofisticadas e nebulosas entre os pontos de dados, permitindo a identificação e o perfil em um nível que não vimos anteriormente. Isso pode transformar praticamente todos os dados em dados pessoais identificáveis ou confidenciais. Os requisitos de consentimento atuais podem não resolver isso adequadamente.

Embora as funções de interface do usuário manipuladoras e de experiência do usuário comumente conhecidas como padrões escuros estejam cada vez mais reprovadas e, em alguns casos, tenham sofrido regulamentação, as pessoas tendem a se concentrar em táticas que já são conhecidas. O design responsivo pode permitir o desenvolvimento de maneiras novas e mais sofisticadas de manipular usuários.

A controvérsia do Zoom e o consentimento do usuário

A popular plataforma de videoconferência Zoom atualizou seus termos de serviço (TOS) em março de 2023, o que é comum para uma empresa. No entanto, duas seções pareciam ter amplas implicações para as permissões do Zoom em relação aos dados do usuário, chamados de “dados gerados pelo Serviço”, que incluem telemetria, uso do produto, diagnóstico e dados ou conteúdo semelhantes gerados com o uso do Zoom e que a empresa coleta durante o uso da plataforma.

Os termos de serviço atualizados forneciam todos os direitos aos dados gerados pelo Serviço para Zoom, incluindo direitos de modificação, distribuição, processo, compartilhamento, manutenção e armazenamento dos dados “para qualquer finalidade, na medida e na extensão permitida pela lei aplicável”. O direito do Zoom de usar dados do usuário para aprendizado de máquina e inteligência artificial, incluindo modelos e algoritmos de treinamento e ajuste, foi mencionado explicitamente.

Portanto, o Zoom pode coletar uma variedade de dados do usuário do uso de sua plataforma e aplicá-los a muitas finalidades, incluindo treinamento em IA, sem a necessidade de obter o consentimento explícito dos usuários ou permitir que eles optem por não participar.

Isso pode ser legal de acordo com as leis de privacidade atuais nos Estados Unidos, onde a Zoom está sediada (o país não tem uma única lei federal, mas uma série de leis estaduais), mas não é legal nos termos do RGPD da União Europeia (UE), o que exige o consentimento para ser “informado”, entre outros requisitos (Considerando 32 RGPD).

De acordo com o RGPD, para que o consentimento seja válido, ele também deve ser obtido antes do início da coleta de dados e requer notificação clara e compreensível aos usuários. Os termos de serviço do Zoom são um tanto enigmáticos, como os de muitas outras empresas.

Resposta do Zoom à controvérsia de mudança de termos de serviço

A reação à descoberta e cobertura pública desta alteração de termos de serviço foi substancial. As empresas estavam preocupadas com o fato de que as informações proprietárias de reuniões confidenciais poderiam ser usadas sem consentimento. Ou que o Zoom teria direito sobre seu conteúdo criativo, como entrevistas para vídeos ou podcasts.

Algumas empresas dos EUA que usam o Zoom para fins relacionados à saúde ficaram alarmadas devido a preocupações sobre violações de privacidade da Health Insurance Portability and Accountability Act (HIPAA). Por exemplo, havia receios de a empresa ter direitos de posse e uso do conteúdo das sessões de terapia das pessoas. Esses usos não eram necessariamente a intenção da empresa para o uso de dados, mas a percepção pública é poderosa.

O Zoom respondeu à reação com outra atualização dos termos de serviço feita para esclarecer o uso de dados, afirmando que não treinaria seus modelos de IA com conteúdo de áudio, vídeo ou chat dos clientes sem antes obter o consentimento.

Ela também adicionou a linha na seção 10.2 que afirma: “A Zoom não usa nenhum de seus áudios, vídeos, chats, compartilhamentos de tela, anexos ou outras comunicações semelhantes ao Conteúdo do cliente (como resultados de enquetes, quadro de compartilhamento e reações) para treinar o Zoom ou modelos de inteligência artificial de terceiros.

No entanto, alguns usuários ainda expressaram preocupação com as permissões aparentemente abrangentes concedidas ao Zoom se o consentimento foi fornecido, e muitos ainda não estão claros sobre exatamente o que o Conteúdo gerado pelo Serviço inclui.

Outros desafios com empresas de tecnologia, termos de uso e consentimento

É importante observar que o Zoom não está sozinho. Outras empresas usam IA nas plataformas. O Google o usa para criar transcrições de chamadas do Google Meet (com resultados de qualidade variável). Também foi descoberto que a Meta, empresa controladora do Facebook, “ocultou” o consentimento para o uso de dados do usuário em publicidade personalizada nos termos de uso de 2022. Em janeiro de 2023, a empresa foi proibida de usar dados pessoais para publicidade com este tipo de “consentimento”, dos quais a maioria dos usuários não estava completamente ciente. A Meta afirmou que mudaria seu modelo e solicitaria o consentimento para a publicidade na UE.

Outras empresas foram pegas tentando táticas semelhantes de não transparência. Alguns foram pegos ocultando o “consentimento” ou inserindo permissões questionáveis em seus termos de serviço, pois sabem que poucos usuários leem essas informações com cuidado. Essa é uma prática ruim na melhor das hipóteses, e ilegal na pior, já que muitas regulamentações exigem consentimento para serem informadas.

Está mais do que evidente que a necessidade por mais clareza sobre treinamento da IA e o conteúdo gerado por usuários nas plataformas (e obviamente o consentimento) são situações que demandarão cada vez mais atenção daqui pra frente.

Como as empresas podem usar os dados de forma ética com um consentimento de usuário válido?

As empresas que adquirem dados para treinamento da IA ou outros usos podem e devem garantir que o consentimento tenha sido obtido das fontes ou dos usuários. Em alguns casos, pode ser um requisito para fazer negócios com parceiros ou fornecedores.

O consentimento também está se tornando importante para a estratégia de monetização. Por exemplo, cada vez mais, anunciantes premium insistem na prova de consentimento para a coleta de dados de usuários antes de fazer uma parceria com desenvolvedores de aplicativos.

As empresas que coletam dados de usuários de suas próprias plataformas e usuários para treinamento da IA ou outros usos têm responsabilidade direta em obter consentimento válido e cumprir as leis de proteção de dados. Existem várias maneiras de as empresas obterem conformidade e consentimento válido.

Transparência: as leis de privacidade exigem notificações claras e acessíveis, e as empresas devem fornecer informações compreensíveis aos usuários sobre como os dados do usuário serão usados e processados, inclusive para treinamento em IA. À medida que os usos dos dados pessoais mudam, as empresas precisam atualizar seus avisos de privacidade, informar os usuários e, sob muitas leis de privacidade, obter novo consentimento para os novos usos dos dados pessoais.

Consentimento granular: os usuários devem ser capazes de aceitar ou recusar a coleta e o processamento de seus dados pessoais, mas devem ser capazes de fazê-lo em um nível detalhado, por exemplo, aprovar alguns tipos de processamento, como publicidade direcionada ou treinamento em IA, mas não outros, como a venda dos dados. Isso também ajuda a garantir que as pessoas sejam informadas, o que é uma exigência de consentimento para serem válidas de acordo com a maioria das leis de privacidade.

Mecanismos fáceis de usar: assim como as notificações devem ser claras e acessíveis, a maneira como os usuários aceitam ou recusam o consentimento deve ser fácil de entender e acessar. As informações para os usuários sobre o processamento de dados devem estar disponíveis, bem como a capacidade de consentir ou recusar em um nível granular. Além disso, aceitar ou recusar o consentimento devem ser ambas práticas fáceis e, de acordo com muitas leis de privacidade, os usuários também devem ser capazes de alterar facilmente suas preferências de consentimento.

Familiaridade regulatória: diferentes jurisdições têm diferentes leis de privacidade com diferentes requisitos e modelos de consentimento. É importante que as empresas saibam quais leis precisam cumprir e como fazê-lo. Pode ser importante consultar ou nomear um consultor jurídico qualificado ou um especialista em privacidade, por exemplo, um responsável pela proteção de dados (DPO), que também é exigido por algumas leis de privacidade. Esse profissional ajuda a estabelecer diretrizes e processos, atualizar operações e gerenciar a segurança de dados e processamento.

Quais direitos os usuários de plataformas on-line têm sobre seus dados?

Os direitos dos consumidores em relação aos seus dados pessoais dependem de vários fatores, incluindo onde o usuário vive e quais leis de privacidade estão em vigor, para que serve a plataforma e quais dados o usuário está fornecendo ou gerando sobre ela, e quais são os termos de serviço da plataforma.

Na União Europeia, as empresas que coletam e processam dados pessoais devem obter o consentimento do usuário antes de fazê-lo. Isso se aplica igualmente às redes sociais, a blogs, a sites do governo ou a lojas de comércio eletrônico. Os dados dos usuários podem ser coletados para saber como as pessoas usam um site e melhorar seu funcionamento. Ou para permitir a realização quando compram algo on-line, exibem anúncios ou treinam modelos de IA.

Plataformas em todo o mundo que são usadas para atividades financeiras ou assistência médica têm requisitos mais rígidos de privacidade e segurança sob várias regulamentações devido aos tipos de informações com que lidam.

Em algumas jurisdições, ainda é permitido exibir um banner de cookies que diz que você consente com a coleta e o uso de seus dados pessoais simplesmente ao continuar usando o site ou serviço. Mas, na UE e em outras jurisdições, isso não é aceitável e é necessário um consentimento granular.

IA e cookies

O uso de cookies on-line está diminuindo, pois há tecnologias mais novas e melhores para realizar as ações que antes eram feitas pelos cookies. A pergunta de hoje e de agora em diante tem menos a ver com como a IA usa cookies, ou pode fazer isso, e mais com como a IA pode acelerar a substituição de cookies.

A Apple e a Mozilla bloquearam cookies de terceiros, e o Google planeja aposentá-los totalmente. Novas ferramentas e métodos também permitem melhor privacidade e consentimento dos dados e podem resultar em dados de usuário de maior qualidade.

Os modelos atuais de consentimento de cookies podem não ser suficientes para cobrir o uso de IA, já que os sistemas de IA podem analisar grandes quantidades de dados em tempo real, em vez de ferramentas que analisam dados de cookies ativos ao longo do tempo. Para que o consentimento seja obtido antes do início da coleta ou do uso de dados, com pop-ups atuais, o usuário teria que ser bombardeado com banners de consentimento mais rápido e com mais frequência do que um ser humano poderia processá-los.

Os modelos de IA podem permitir anúncios mais eficazes ou experiências de usuário personalizadas sem depender da coleta de informações de identificação pessoal, pois eles podem analisar grandes quantidades de dados muito rapidamente para agrupar pessoas em públicos com base em comportamentos. Se o sistema não precisar coletar dados do usuário, talvez não seja necessário consentimento, pelo menos para a coleta de dados.

É provável que as leis e as práticas recomendadas ainda exijam que os usuários sejam notificados sobre como seus comportamentos podem ser rastreados e analisados, e para o que essa análise poderia ser usada, por exemplo, em anúncios personalizados ou experiências de compra. Mas os dados pessoais das pessoas não poderiam ser vendidos se nunca tivessem sido coletados.

O que é a Lei AI (AI Act) da UE?

A Lei AI da UE é uma lei sobre inteligência artificial (IA) proposta pela Comissão Europeia. É a primeira lei abrangente no mundo a regulamentar a IA. O objetivo é equilibrar os usos positivos da tecnologia, mitigar os negativos e codificar os direitos. Há também o objetivo de esclarecer muitas perguntas atuais e futuras sobre o desenvolvimento de IA e tornar a Lei um padrão global à medida que o RGPD se estabelece.

A lei atribuiria aplicações da tecnologia de IA a uma entre várias categorias:

Risco inaceitável: IA com riscos inaceitáveis seria totalmente proibida, por exemplo, a ferramenta de pontuação social do governo chinês

Alto risco: IA com riscos potenciais, permitida com base na conformidade com os requisitos de IA e avaliação de conformidade prevista, por exemplo, uma ferramenta que classifica candidatos a emprego por meio de verificações de currículos

Risco médio: IA com obrigações específicas de transparência, permitida, mas sujeita a requisitos de informações, por exemplo, bots que podem ser usados para representação

Risco mínimo ou nulo: IA sem riscos notáveis, permitida sem restrições

Disposições de consentimento na Lei de IA

O projeto da Lei de IA está atualmente em um estado preliminar e pode mudar antes de se tornar lei. Atualmente, o consentimento do usuário e a privacidade e proteção dos dados são tratados em seus estatutos em várias frentes:

Alto risco: o consentimento explícito é necessário para o uso de sistemas de IA de alto risco, por exemplo, infraestrutura crítica, emprego, saúde e aplicação da lei.

Transparência: os provedores de IA devem fornecer informações claras sobre a finalidade, os recursos e as limitações previstos dos sistemas para garantir que os usuários sejam informados a fim de tomar decisões e compreender os possíveis impactos sobre seus direitos.

Direito à explicação: os usuários têm o direito de obter explicações relevantes sobre as decisões dos sistemas de IA.

Direito ao controle do usuário: os usuários devem ter a capacidade de cancelar, desativar ou desinstalar sistemas de IA, especialmente quando direitos ou interesses fundamentais estão em jogo (de acordo com algumas leis de privacidade, os usuários têm o direito de optar por não tomar decisões automatizadas).

Proteção de dados e privacidade: a Lei de IA enfatiza a necessidade de minimização de dados, limitação de finalidade e proteções para proteger dados pessoais ao usar sistemas de IA e se alinha às regulamentações de privacidade de dados existentes, como o RGPD.

Conclusão e futuro da IA e do consentimento

A tecnologia de IA está aqui para ficar. Seus recursos e possíveis casos de uso continuarão evoluindo rapidamente. Este é um desafio para a regulamentação, pois a criação e atualização de leis tende a acontecer muito mais lentamente do que a velocidade com que as tecnologias se desenvolvem.

No entanto, os usuários não devem se deparar com um “vazio de advertência”, especialmente on-line, com relação a novos usos para seus dados pessoais e desafios para sua privacidade. Os reguladores devem elaborar e atualizar leis que sejam claras e abrangentes, mas suficientemente flexíveis para serem interpretáveis e aplicáveis hoje e no futuro.

As organizações precisam estar claras sobre quais normas de privacidade devem cumprir, o que estipulam e o que isso significa para suas operações. Isso precisa ser revisado regularmente à medida que as operações mudam e claramente comunicado. Tentar introduzir alterações nos termos de uso ou usar os dados coletados para novos fins sem obter o consentimento do novo usuário é uma maneira fácil de prejudicar a reputação da marca, além de ser ilegal em muitas jurisdições. À medida que os consumidores ficam ainda mais familiarizados com seus dados e privacidade, as empresas terão que ser mais claras, não menos, sobre coleta e uso de dados.

As empresas também devem implementar práticas recomendadas, como privacidade por padrão, para garantir que estejam respeitando as pessoas, a fonte de seus dados, e em conformidade com a lei. Isso também ajudará a garantir que o consentimento seja obtido e que a coleta e o uso de dados sejam limitados a subsídios legais para todas as operações, seja no atendimento de pedidos de comércio eletrônico ou no treinamento de novos modelos de IA.

A IA é apenas a mais recente tecnologia a trazer novos desafios para consumidores, empresas e reguladores. Não é a primeiro nem será a última. Mas as melhores práticas para alcançar a conformidade, obter a confiança dos usuários e expandir com sucesso as empresas (ou fazer ciência) continuam a ser as mesmas e a servir bem as organizações e os consumidores.

Para saber mais, fale com nossos especialistas hoje mesmo.

Perguntas frequentes

O que é a inteligência artificial (IA)?

A inteligência artificial é o desenvolvimento de máquinas que podem executar tarefas que normalmente exigem inteligência humana. Isso inclui áreas como reconhecimento de texto ou fala, solução de problemas e tomada de decisões. O desenvolvimento de IA geralmente requer a entrada de grandes quantidades de dados para ajudar os sistemas a “aprenderem”.

O que é aprendizado de máquina ou machine learning (ML)?

O aprendizado de máquina é um subconjunto da IA que se concentra no desenvolvimento de algoritmos e modelos que permitem que os computadores aprendam com dados e façam previsões ou decisões sem serem explicitamente programados. É uma maneira de os computadores “aprenderem” com exemplos e melhorarem o próprio desempenho ao longo do tempo.

O que são grandes modelos de linguagem ou large language models (LLMs)?

Os grandes modelos de linguagem são um avanço recente na pesquisa de IA. Eles têm como objetivo entender e gerar linguagem semelhante à humana. O ChatGPT, da OpenAI, e o Bard, do Google, são exemplos de LLMs disponíveis ao público. Algumas ferramentas desenvolvidas por meio do uso delas podem ser empregadas para SEO, conteúdo de marketing e outros fins comerciais.

Como os sistemas de IA são treinados?

O treinamento da IA é o processo de ensino de um sistema de OA para aprender padrões e fazer previsões ou decisões com base nos dados fornecidos a ele. O treinamento é fundamental para o desenvolvimento de sistemas de IA que possam executar tarefas específicas, reconhecer padrões, fornecer informações precisas ou fazer julgamentos conscientes.

Veja a seguir uma descrição do processo de treinamento da IA:

  1. Coleta de dados: a primeira etapa envolve a coleta de dados relevantes e representativos. Esses dados servem de entrada para o treinamento do modelo da IA. A qualidade e a diversidade dos dados afetam diretamente o desempenho do modelo.
  2. Pré-processamento de dados: os dados brutos geralmente exigem limpeza, transformação e estruturação para que sirvam para o treinamento. Esta etapa envolve a remoção de ruídos, o tratamento de valores ausentes e a padronização dos dados.
  3. Engenharia de recursos: a engenharia de recursos envolve a seleção e transformação dos atributos (recursos) relevantes nos dados que o modelo usará para fazer previsões. A engenharia de recursos eficaz pode influenciar bastante o desempenho do modelo.
  4. Seleção de modelo: dependendo do problema, um algoritmo ou modelo de aprendizado de máquina adequado é escolhido. Modelos diferentes têm recursos diferentes e são mais adequados para tipos específicos de tarefas, como regressão, classificação ou agrupamento.
  5. Treinamento: este é o coração do processo. Durante o treinamento, o modelo recebe os dados de entrada com as respectivas saídas desejadas. O modelo ajusta seus parâmetros internos iterativamente para minimizar a diferença entre suas previsões e os resultados reais.
  6. Função de perda: uma função de perda é usada para quantificar o quão bem as previsões do modelo correspondem aos resultados reais. O objetivo do treinamento é minimizar essa função de perda, essencialmente ensinando o modelo a fazer melhores previsões ao longo do tempo.
  7. Otimização: técnicas de otimização, como descida de gradiente, são empregadas para ajustar os parâmetros do modelo de forma a minimizar a função de perda.
  8. Validação: para garantir que o modelo treinado generaliza bem os dados novos e invisíveis, um conjunto de dados de validação separado é usado para avaliar seu desempenho. Esta etapa ajuda a evitar o ajuste excessivo, onde o modelo funciona bem nos dados de treinamento, mas não nos dados novos.
  9. Ajuste de hiperparâmetros: muitos modelos têm hiperparâmetros, que são configurações que influenciam o processo de aprendizagem. Eles precisam ser ajustados para encontrar o equilíbrio ideal entre encaixe insuficiente e ajuste excessivo.
  10. Teste e implantação: uma vez que o modelo funciona bem nos dados de treinamento e validação, ele pode ser testado em um conjunto de dados de teste separado para avaliar seu desempenho real. Se os resultados forem satisfatórios, o modelo pode ser implantado para uso.

O processo de treinamento em IA envolve uma combinação de dados, algoritmos e otimização iterativa para criar um modelo que possa fazer previsões ou decisões precisas. É importante observar que o treinamento de um modelo de IA requer experiência, avaliação cuidadosa e compreensão do problema específico do domínio para garantir resultados eficazes e confiáveis.

Com quais dados pessoais os sistemas de IA são treinados?

A IA pode ser treinada com muitos tipos de dados, dependendo do que o sistema pretende fazer, por exemplo, responder perguntas, tomar decisões, gerar gráficos ou texto etc.

Alguns tipos comuns de dados de treinamento para IA são:

  • Texto: por exemplo, livros, artigos, sites ou redes sociais; usado para tradução, análise de sentimentos, desenvolvimento de chatbot etc.
  • Imagens: um grande número de imagens rotuladas; usadas para reconhecimento de imagens, detecção de objetos e geração de imagens
  • Áudio: por exemplo, palavras faladas, sons ou padrões acústicos; usado para reconhecimento de voz, assistentes de voz e modelos de análise de áudio
  • Dados de vídeo: sequências de vídeo; usados em análise de vídeo, vigilância, geração de vídeo e para aprender padrões temporais
  • Dados de jogos: dados e interações de jogos; usados para desenvolver jogos e estratégias
  • Dados estruturados: por exemplo, bancos de dados ou planilhas; usados para análise preditiva, sistemas de recomendação ou detecção de fraudes
  • Dados de sensores: câmeras, radares etc.; usados para sistemas de veículos autônomos, automação industrial etc.
  • Dados de saúde: imagens médicas, como raio X e ressonância magnética, registros de pacientes e dados clínicos; usados para assistência em diagnósticos, tratamento e pesquisa
  • Dados financeiros: dados financeiros existentes de mercados e registros de transações; usados para previsão de preço de ações, pontuação de crédito e detecção de fraudes
  • Dados genômicos: sequências de DNA, marcadores genéticos e outros dados biológicos relacionados; usados para medicina personalizada e melhorar a compreensão da genética
  • Dados de simulação: dados gerados por simulações; usados para aprender como os sistemas se comportam sob diferentes condições
Quais são os problemas com o uso de dados pessoais para treinar a IA?

A preocupação mais fundamental com o uso de dados pessoais para conjuntos de treinamento da IA é se o consentimento foi obtido ou não das pessoas às quais os dados pertencem. Os dados pessoais variam em tipo e sensibilidade. Alguns podem ser usados para identificar um indivíduo e outros podem ser prejudiciais se usados incorretamente.

Informações de saúde e financeiras são exemplos particularmente importantes de dados pessoais confidenciais. Os dados confidenciais geralmente exigem o consentimento do usuário para coletar ou usar de acordo com a lei de privacidade de dados, enquanto os dados pessoais, mas não confidenciais, às vezes só exigem consentimento antes de serem vendidos ou usados para publicidade direcionada, criação de perfis etc.

Nem todos os lotes de dados de treinamento são iguais. Qualidade, quantidade, diversidade e permissão de uso podem variar muito. Isso pode ter um impacto grande no “aprendizado” e no desempenho dos sistemas e Dados mal equilibrados ou não diversificados também podem produzir resultados distorcidos, às vezes com resultados ofensivos ou legalmente precários, como sistemas que produzem recomendações discriminatórias ou identificação imprecisa.

Qual consentimento do usuário é necessário para usar dados pessoais para o treinamento da IA?

Há vários fatores que determinam se o consentimento do usuário é necessário para o uso de dados pessoais para o treinamento da IA. Como a controvérsia do Zoom, pode depender se o treinamento em IA estiver incluído nos termos de serviço de uma empresa. Em caso afirmativo, é possível que não seja necessário consentimento adicional. No entanto, em algumas jurisdições, isso não seria suficiente, como na UE, de acordo com o RGPD. Nesse caso, o consentimento explícito precisaria ser obtido para o uso de dados pessoais em conjuntos de treinamento da IA, e os usuários teriam que ser informados sobre esse uso antes que os dados fossem coletados para ele.

As empresas precisam estar cientes de onde seus clientes e usuários estão localizados e estar familiarizadas com as leis de privacidade relevantes que protegem essas pessoas, atualizando suas operações de privacidade de dados de acordo. As empresas já podem obter o consentimento para a coleta de dados pessoais, mas sob muitas leis de privacidade, elas não podem apenas adicionar treinamento em IA como um propósito para essa coleta e uso de dados sem primeiro atualizar seu aviso de privacidade e, sob muitas leis de privacidade, obter o consentimento para esse novo uso. Em muitas jurisdições, os usuários também devem ser capazes de cancelar o uso de seus dados em um nível granular, o que pode incluir para treinamento da IA.

Algumas leis de privacidade de dados não cobrem dados pessoais que as pessoas disponibilizam publicamente, o que pode incluir aqueles gerados em plataformas sociais. Mas ainda não está totalmente claro como isso afetaria o uso de dados pessoais para o treinamento da IA. Publicações, comentários, fotos etc. seriam mais prováveis de serem consideradas públicas do que mensagens privadas, por exemplo.

O consentimento do usuário pode ser obtido para uso com IA?

Os sistemas de IA em geral ainda são experimentais e os resultados são imprevisíveis. As organizações podem notificar os usuários sobre de que maneiras querem usar dados, o que normalmente deve acontecer antes do uso, mas é possível que os dados realmente sejam usados, como eles podem ser alterados ou os resultados do uso podem ser diferentes.

Se os dados estiverem sendo analisados em grandes quantidades em tempo real, os mecanismos tradicionais para obter o consentimento do usuário, como banners de cookies, podem não ser rápidos ou granulares o suficiente.

Os sistemas de IA podem causar problemas de privacidade de dados?

Os sistemas de IA voltados para o usuário podem ser potencialmente manipuladores, resultando no fornecimento de informações que os usuários não preveem. Os sistemas também podem apresentar conexões mais sofisticadas e nebulosas entre os pontos de dados, permitindo a identificação e o perfil em um nível que não vimos anteriormente. Isso pode transformar praticamente todos os dados em dados pessoais identificáveis ou confidenciais. Os requisitos de consentimento atuais podem não resolver isso adequadamente.

Embora as funções de interface do usuário manipuladoras e de experiência do usuário comumente conhecidas como padrões escuros sejam cada vez mais reprovadas e, em alguns casos, tenham sido sujeitas à regulamentação, as pessoas tendem a se concentrar em táticas que já são conhecidas. O design responsivo pode permitir o desenvolvimento de maneiras novas e mais sofisticadas de manipular usuários

O treinamento em IA afeta o consentimento de cookies?

O uso da IA pode realmente ajudar a acelerar o fim do uso de cookies, especialmente cookies de terceiros, pois pode oferecer funções que fornecem melhores resultados e que não necessariamente solicitam a coleta de dados pessoais.

Os modelos atuais de consentimento de cookies podem não ser suficientes para cobrir o uso de IA, já que os sistemas de IA podem analisar grandes quantidades de dados em tempo real, em vez de ferramentas que analisam dados de cookies ativos ao longo do tempo. Para que o consentimento seja obtido antes do início da coleta ou do uso de dados, com pop-ups atuais, o usuário teria que ser bombardeado com banners de consentimento mais rápido e com mais frequência do que um ser humano poderia processá-los

Como as empresas devem obter o consentimento para o treinamento da IA?

As empresas que coletam dados de usuários de suas próprias plataformas e usuários para treinamento da IA ou outros usos têm responsabilidade direta em obter consentimento válido e cumprir as leis de proteção de dados. As práticas recomendadas para obter o consentimento para o treinamento da IA são as mesmas práticas recomendadas de conformidade de privacidade de dados.

  • Fornecer notificação clara e acessível aos usuários com antecedência sobre como os dados serão usados e obter novo consentimento se os propósitos mudarem
  • Certificar-se de que os usuários possam aceitar ou recusar o consentimento em um nível granular, ou seja, para todos os usos ou apenas para alguns. Certificar-se de que recusar e aceitar sejam ambas práticas fáceis de se realizar, e que os usuários possam alterar escolhas de consentimento ou retirar o consentimento facilmente no futuro.
  • Familiarizar-se com as leis de privacidade de dados relevantes e as responsabilidades das empresas. Revisar a coleta e o processamento de dados regularmente para garantir que as notificações e as informações de consentimento estejam atualizadas.
O RGPD cobre inteligência artificial e consentimento?

O Regulamento Geral de Proteção de Dados não menciona explicitamente a inteligência artificial, mas como uma série de outras leis de privacidade de dados, faz referência à “tomada de decisões automatizada”, que pode incluir sistemas de IA.

A IA seria tratada como qualquer outro uso de dados pessoais, ou seja, os usuários precisariam ser notificados sobre esse uso solicitado antes que os dados pessoais fossem coletados para isso, e o consentimento precisaria ser obtido para esse uso antes que qualquer coleta ou processamento ocorresse.

O que é a Lei AI da UE?

A Lei da IA é uma lei sobre inteligência artificial (IA) proposta pela Comissão Europeia. Os objetivos da lei são:

  • Equilibrar os usos positivos da tecnologia e os riscos
  • Reduzir os riscos atuais e futuros e os usos negativos da tecnologia
  • Codificar os direitos dos consumidores
  • Esclarecer dúvidas atuais e futuras sobre o desenvolvimento de IA
  • Tornar a Lei um padrão global (como o RGPD)

A lei atribuiria aplicações da tecnologia de IA a uma entre várias categorias:

  • Risco inaceitável – proibição total do uso
  • Alto risco – uso permitido sujeito a avaliação e conformidade
  • Risco médio – uso permitido sujeito a obrigações de transparência
  • Risco mínimo ou nulo – permitido sem restrições se riscos não notáveis forem identificados

A Usercentrics não fornece consultoria jurídica, e as informações são fornecidas apenas para fins educacionais. Recomendamos sempre obter orientação jurídica qualificada ou a assistência de especialistas em privacidade em relação a questões e operações de privacidade e proteção de dados.