{"id":3522,"date":"2023-11-23T11:15:12","date_gmt":"2023-11-23T10:15:12","guid":{"rendered":"https:\/\/stage.usercentrics.com\/es\/?post_type=knowledge&#038;p=23430"},"modified":"2024-09-05T12:19:38","modified_gmt":"2024-09-05T10:19:38","slug":"inteligencia-artificial-ia-y-consentimiento","status":"publish","type":"knowledge","link":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/","title":{"rendered":"Inteligencia artificial (IA), datos personales y consentimiento"},"content":{"rendered":"\n\n<p>La inteligencia artificial (IA) parece estar en todas partes y ha recibido casi tanta financiaci\u00f3n como atenci\u00f3n medi\u00e1tica. \u00bfEs la \u00faltima palabra de moda en tecnolog\u00eda o est\u00e1 cambiando, y seguir\u00e1 cambiando, casi todos los aspectos sobre c\u00f3mo creamos y trabajamos? \u00bfA qui\u00e9n pertenecen los datos y los resultados? <\/p>\n<p>Se dice que el desarrollo de la IA descansa sobre los pilares de <a href=\"https:\/\/hackernoon.com\/evolution-of-the-data-production-paradigm-in-ai\" rel=\"noopener\" target=\"_blank\">los algoritmos, el hardware y los datos<\/a>. Los datos se consideran el cabo suelto, y el consentimiento del usuario es una parte importante de esta cuesti\u00f3n.<\/p>\n<p>El r\u00e1pido avance del entrenamiento de la IA y los usos de la tecnolog\u00eda han suscitado inquietudes sobre el consentimiento de los usuarios y las implicaciones \u00e9ticas del uso de datos personales. Si los datos de los usuarios se utilizan para entrenar la IA, \u00bftienen \u00e9stos derechos sobre los resultados? \u00bfDeber\u00edan las organizaciones que necesitan datos de entrenamiento de la IA obtener el consentimiento para los datos ya publicados en l\u00ednea? \u00bfPara cu\u00e1ntos fines espec\u00edficos deben obtener los proveedores de herramientas o servicios de IA el consentimiento expl\u00edcito de los usuarios?<\/p>\n\n\n<h2 class=\"wp-block-heading\">\u00bfQu\u00e9 es la inteligencia artificial (IA)?<\/h2>\n<p>La inteligencia artificial se refiere al desarrollo de m\u00e1quinas capaces de realizar tareas que normalmente requieren inteligencia humana. Incluye \u00e1reas como el reconocimiento de texto o voz, la resoluci\u00f3n de problemas y la toma de decisiones. El desarrollo de la IA suele requerir la introducci\u00f3n de grandes cantidades de datos para ayudar a los sistemas a \u00abaprender\u00bb.<\/p>\n<h3>\u00bfQu\u00e9 es el machine learning (ML)?<\/h3>\n<p>El machine learning o aprendizaje autom\u00e1tico es un subconjunto de la IA que se centra en el desarrollo de algoritmos y modelos que permiten a los ordenadores aprender de los datos y hacer predicciones o tomar decisiones sin estar expl\u00edcitamente programados. Es una forma de que los ordenadores \u00abaprendan\u00bb a partir de ejemplos y mejoren su rendimiento con el tiempo.<\/p>\n<h3>\u00bfQu\u00e9 son los large learning models (LLM)?<\/h3>\n<p>Los large learning models o modelos de lenguaje de gran tama\u00f1o son un avance reciente en la investigaci\u00f3n de IA, dise\u00f1ados para comprender y generar un lenguaje similar al humano. ChatGPT de OpenAI y Bard de Google son dos ejemplos de LLM de acceso p\u00fablico. Algunas herramientas desarrolladas con ellos pueden utilizarse para SEO, contenido de marketing y otros fines empresariales. <\/p>\n<p>El objetivo de entrenar a un LLM es capacitarlo para comprender la estructura, el significado y el contexto del lenguaje humano, lo que permite, por ejemplo, obtener respuestas m\u00e1s precisas a las preguntas de las personas.<br \/>\nLos LLM se entrenan con grandes cantidades de texto de libros, art\u00edculos, p\u00e1ginas web y otras fuentes. Hasta la fecha se han planteado problemas de privacidad de los datos, ya que los contenidos se extraen y analizan sin el consentimiento de sus creadores o propietarios. Existe la posibilidad de que los datos a los que se ha accedido sean confidenciales, adem\u00e1s de haber sido utilizados sin consentimiento. <\/p>\n\n\n<h2 class=\"wp-block-heading\">\u00bfQu\u00e9 es el entrenamiento de IA?<\/h2>\n<p>El entrenamiento de IA, tambi\u00e9n conocido como entrenamiento por machine learning, consiste en ense\u00f1ar a un sistema de IA a aprender patrones y hacer predicciones o tomar decisiones basadas en los datos que se le proporcionan. El entrenamiento es crucial para desarrollar sistemas de IA que puedan realizar tareas espec\u00edficas, reconocer patrones, proporcionar informaci\u00f3n precisa o tomar decisiones informadas.<\/p>\n<p>El proceso de entrenamiento consta de una serie de pasos. En resumen, comienzan con la obtenci\u00f3n de datos relevantes y su preparaci\u00f3n para la utilizaci\u00f3n, hasta la selecci\u00f3n de lo que el modelo deber\u00e1 hacer con los conjuntos de datos de entrenamiento, pasando por la introducci\u00f3n y el an\u00e1lisis de los datos. A continuaci\u00f3n, hay que trabajar para que los resultados o las predicciones coincidan con los resultados reales o mejoren en precisi\u00f3n, y asegurarse de que el modelo de IA funciona bien con cualquier conjunto de datos, incluidos los datos del mundo real, y no solamente con los datos de entrenamiento. Los modelos de IA tienen que superar todos los pasos antes de estar listos para un uso m\u00e1s extensivo.<\/p>\n<h3>Ambig\u00fcedades en el uso de los conjuntos de datos de entrenamiento<\/h3>\n<p>Las organizaciones podr\u00edan plantearse qu\u00e9 define el \u00abuso\u00bb de los datos personales. \u00bfCu\u00e1ntos cambios hacen que dejen de ser datos personales? Por ejemplo, para poner los datos en un formato que pueda utilizar el modelo de entrenamiento, es posible que haya que transformarlos con respecto al formato en el que se recogieron. Adem\u00e1s, \u00bfdeber\u00eda una organizaci\u00f3n obtener el consentimiento para utilizar los datos para entrenar modelos de IA, incluso si es solamente para investigaci\u00f3n y no con fines comerciales? Puede que nadie m\u00e1s que los investigadores tenga acceso a ellos.<\/p>\n\n\n<h2 class=\"wp-block-heading\">\u00bfCon qu\u00e9 datos se entrena la IA?<\/h2>\n<p>La IA se puede entrenar con numerosos tipos de datos. Lo que necesitan los instructores puede depender de lo que el sistema vaya a ser capaz de hacer, por ejemplo, responder preguntas, tomar decisiones, generar gr\u00e1ficos o texto, etc.<\/p>\n<p>Algunos tipos habituales de datos de formaci\u00f3n para la IA son:<\/p>\n<ul>\n<li><strong>Texto<\/strong>: por ejemplo, de libros, art\u00edculos, sitios web o redes sociales. Se utilizan para traducci\u00f3n, an\u00e1lisis de sentimientos, desarrollo de chatbots, etc.<\/li>\n<li><strong>Im\u00e1genes<\/strong>: a partir de un gran n\u00famero de im\u00e1genes etiquetadas. Se utilizan para el reconocimiento de im\u00e1genes, la detecci\u00f3n de objetos y la generaci\u00f3n de im\u00e1genes<\/li>\n<li><strong>Audio<\/strong>: por ejemplo, a partir de palabras habladas, sonidos o patrones ac\u00fasticos. Se utiliza para el reconocimiento del habla, los asistentes de voz y los modelos de an\u00e1lisis de audio<\/li>\n<li><strong>Datos de v\u00eddeo<\/strong>: a partir de secuencias de v\u00eddeo. Se utilizan en an\u00e1lisis de v\u00eddeo, vigilancia, generaci\u00f3n de v\u00eddeo y para aprender patrones temporales<\/li>\n<li><strong>Datos de juegos<\/strong>: a partir de datos de juego e interacciones. Se utilizan para desarrollar el juego y la estrategia<\/li>\n<li><strong>Datos estructurados<\/strong>: por ejemplo, de bases de datos u hojas de c\u00e1lculo. Se utilizan para an\u00e1lisis predictivos, sistemas de recomendaci\u00f3n o detecci\u00f3n de fraudes<\/li>\n<li><strong>Datos de sensores<\/strong>: de c\u00e1maras, lidar, radar, etc. Se usan para sistemas de veh\u00edculos aut\u00f3nomos, automatizaci\u00f3n industrial, etc.<\/li>\n<li><strong>Datos sanitarios<\/strong>: procedentes de im\u00e1genes m\u00e9dicas, como radiograf\u00edas y resonancias magn\u00e9ticas, historiales de pacientes y datos cl\u00ednicos. Se utilizan para ayudar en el diagn\u00f3stico, el tratamiento y la investigaci\u00f3n<\/li>\n<li><strong>Datos financieros<\/strong>: a partir de los datos financieros existentes en los mercados y los registros de transacciones. Se utilizan para predecir el precio de las acciones, valorar cr\u00e9ditos y detectar fraudes<\/li>\n<li><strong>Datos gen\u00f3micos<\/strong>: a partir de secuencias de ADN, marcadores gen\u00e9ticos y otros datos biol\u00f3gicos relacionados. Se utilizan para la medicina personalizada y para mejorar la comprensi\u00f3n de la gen\u00e9tica<\/li>\n<li><strong>Datos de simulaci\u00f3n<\/strong>: a partir de datos generados por simulaciones. Se utilizan para aprender c\u00f3mo se comportan los sistemas en diferentes condiciones<\/li>\n<\/ul>\n<h3>Inquietudes sobre consentimiento en relaci\u00f3n con los distintos tipos de datos de entrenamiento de la IA<\/h3>\n<p>Gran parte de estos tipos de datos de entrenamiento para IA se mencionan expl\u00edcitamente en las leyes sobre privacidad de datos. Muchos son tipos de datos personales, y algunos son datos PII, tambi\u00e9n denominados informaci\u00f3n personal de identificaci\u00f3n. Algunos de estos tipos de datos tambi\u00e9n se clasifican en las leyes de privacidad como sensibles, lo que significa que podr\u00edan causar un da\u00f1o mayor si se accede a ellos, o si se utilizan sin autorizaci\u00f3n.<\/p>\n<p>La informaci\u00f3n sanitaria, gen\u00f3mica y financiera son ejemplos especialmente significativos de datos personales sensibles. Los datos sensibles suelen requerir el consentimiento del usuario para su recopilaci\u00f3n o uso conforme a la legislaci\u00f3n sobre privacidad de datos, mientras que los datos que son personales, pero no sensibles, a veces solamente requieren el consentimiento antes de ser vendidos o utilizados para publicidad dirigida, elaboraci\u00f3n de perfiles, etc.<\/p>\n<p>Tambi\u00e9n es importante tener en cuenta que no todos los lotes de datos de formaci\u00f3n son iguales. La calidad, la cantidad, la diversidad y el permiso de uso pueden variar ampliamente. Esto puede tener un impacto significativo en el \u00abaprendizaje\u00bb y el rendimiento de los sistemas. Tambi\u00e9n podr\u00eda significar que se requiere el consentimiento para utilizar algunos tipos de datos en el lote de entrenamiento, pero no para otros. Unos datos mal equilibrados o no diversos tambi\u00e9n pueden producir resultados con sesgo, a veces con resultados ofensivos o legalmente precarios, como sistemas que producen recomendaciones discriminatorias o identificaciones inexactas.<\/p>\n<p>En virtud de un gran n\u00famero de leyes de protecci\u00f3n de la privacidad, los interesados tienen derecho a que la entidad que los ha recopilado corrija sus datos, si est\u00e1n incompletos o son inexactos. \u00bfQu\u00e9 ocurre si sus datos son correctos, pero se utilizan para obtener resultados inexactos? \u00bfCu\u00e1les son sus derechos en ese caso? El uso de estas tecnolog\u00edas plantea a los reguladores numerosas cuestiones complejas, entre ellas la \u00e9tica de la automatizaci\u00f3n.<\/p>\n\n\n<h2 class=\"wp-block-heading\">Consentimiento, IA y datos personales<\/h2>\n<p>La consultora de investigaci\u00f3n Gartner ha predicho que para finales de 2023, el <a href=\"https:\/\/www.gartner.com\/en\/newsroom\/press-releases\/2020-09-14-gartner-says-by-2023--65--of-the-world-s-population-w\" target=\"_blank\" rel=\"noopener\">65 % de la poblaci\u00f3n mundial<\/a> tendr\u00e1 sus datos personales protegidos por las normativas de privacidad de datos, mientras que en 2024 <a href=\"https:\/\/www.gartner.com\/en\/newsroom\/press-releases\/2022-05-31-gartner-identifies-top-five-trends-in-privacy-through-2024\" target=\"_blank\" rel=\"noopener\">la cifra subir\u00e1 al 75 %<\/a>. Lo \u00fanico que cambia m\u00e1s r\u00e1pido que la cobertura de la normativa sobre privacidad es la propia tecnolog\u00eda y la demanda de datos. Ayudando a impulsar todo, desde avances cient\u00edficos hasta campa\u00f1as de marketing.<\/p>\n<p>Pero los datos no son un patrimonio com\u00fan, no est\u00e1n a disposici\u00f3n de cualquier persona. Una gran parte de los datos que existen, y a los que las organizaciones desean acceder, son generados por personas y, por tanto, \u00e9stas tienen derechos en cuanto a su protecci\u00f3n y acceso. Hoy en d\u00eda, los consumidores son cada vez m\u00e1s conscientes de la privacidad de datos y de sus derechos en lo que respecta a sus datos personales. Incluso aunque no entiendan al detalle c\u00f3mo funcionan los sistemas de inteligencia artificial y el resto de funciones.<\/p>\n<p>Con la aprobaci\u00f3n de m\u00e1s legislaci\u00f3n sobre privacidad en todo el mundo, las organizaciones tienen que ser cada vez m\u00e1s cuidadosas a la hora de cumplir con sus responsabilidades en materia de privacidad de datos. <a href=\"\/knowledge-hub\/what-is-the-maximum-fine-related-to-gdpr-violations\/\">Las multas potencialmente de gran cuant\u00eda<\/a>, como algunas de las impuestas en virtud del <a href=\"\/knowledge-hub\/the-eu-general-data-protection-regulation\/\">Reglamento General de Protecci\u00f3n de Datos (RGPD)<\/a> de la Uni\u00f3n Europea, tambi\u00e9n ponen de relieve la importancia de tomarse en serio la normativa sobre privacidad y los derechos de los consumidores.<\/p>\n<h3>\u00bfImporta de d\u00f3nde proceden los conjuntos de datos de entrenamiento?<\/h3>\n<p>Cada vez hay m\u00e1s fuentes de datos de usuarios en potencia, especialmente online, como redes sociales y aplicaciones. Tambi\u00e9n puede ser dif\u00edcil para las empresas determinar sus responsabilidades en materia de privacidad de datos cuando la empresa tiene su sede en un lugar, pero sus usuarios pueden estar repartidos por todo el mundo. Esto puede hacer que una organizaci\u00f3n sea responsable de cumplir m\u00faltiples normativas de privacidad diferentes. Muchas de estas leyes son extraterritoriales, en cuyo caso solamente importa d\u00f3nde se encuentran los usuarios en lo que respecta a derechos y protecciones, no las empresas.<\/p>\n<p>Un gran n\u00famero de consumidores no se fija en gran medida en cu\u00e1ntos datos generan a diario, qui\u00e9n puede tener acceso a ellos y c\u00f3mo podr\u00edan utilizarse. Es posible que los ni\u00f1os no presten atenci\u00f3n o no comprendan del todo la generaci\u00f3n o el procesamiento de datos de los usuarios, a pesar de que la mayor\u00eda de las leyes de privacidad de datos exigen protecciones adicionales y el consentimiento para acceder a sus datos. Ese consentimiento debe obtenerse normalmente de los padres o tutores legales si el ni\u00f1o est\u00e1 por debajo del umbral de edad determinado por la ley aplicable.<\/p>\n<p>Una serie de leyes de privacidad de datos no cubren los datos personales que las personas ponen a disposici\u00f3n del p\u00fablico, lo que podr\u00eda incluir los generados en las redes sociales. Tal vez las publicaciones, los comentarios y las fotos no constituyan una gran preocupaci\u00f3n en materia de privacidad para algunos. Pero, \u00bfqu\u00e9 ocurre con los mensajes privados o los chats? Podr\u00edan contener material mucho m\u00e1s sensible. <\/p>\n<p>Una vez recopilados los datos, idealmente con el consentimiento del usuario, las personas deben saber qu\u00e9 ocurre con ellos. Una condici\u00f3n de la mayor\u00eda de las leyes en materia de privacidad es que el responsable del tratamiento, la entidad responsable de recoger y utilizar los datos, notifique a los usuarios qu\u00e9 datos se van a recoger y con qu\u00e9 fines. En el caso de que esos fines cambien, en virtud de un gran n\u00famero de leyes de privacidad el controlador deber\u00e1 notificarlo a los usuarios y obtener un nuevo consentimiento. Con el entrenamiento de la IA, esto podr\u00eda requerir numerosos detalles espec\u00edficos, y podr\u00eda cambiar a menudo.<\/p>\n\n\n<h2 class=\"wp-block-heading\">Dificultades a la hora de obtener el consentimiento de los usuarios para la IA<\/h2>\n<p>Dado que los sistemas de IA suelen ser a\u00fan experimentales y sus resultados impredecibles, podr\u00edan suponer un obst\u00e1culo en cuanto a algunos requisitos de privacidad de datos. Las organizaciones pueden notificar a los usuarios para qu\u00e9 quieren utilizar los datos, pero es posible que el uso real de los mismos, su modificaci\u00f3n o los resultados de su uso sean diferentes.<\/p>\n<p>Aunque se supone que los usuarios deben ser notificados antes de que se establezca cualquier nueva finalidad, es posible que quienes realizan el trabajo no se enteren de dicho cambio hasta que se haya producido. Si los datos se analizan en grandes cantidades y en tiempo real, los mecanismos tradicionales para obtener el consentimiento del usuario, como los banners de cookies, pueden no ser lo bastante r\u00e1pidos o espec\u00edficos, o no ser suficientes.<\/p>\n<p>Los sistemas de inteligencia artificial orientados al usuario pueden ser potencialmente susceptibles a la manipulaci\u00f3n y a dar lugar a que los usuarios faciliten informaci\u00f3n que no esperaban. Los sistemas tambi\u00e9n pueden sacar a la luz conexiones m\u00e1s sofisticadas y vagas entre puntos de datos, permitiendo la identificaci\u00f3n y la elaboraci\u00f3n de perfiles a un nivel que no hemos observado antes. Esto podr\u00eda convertir potencialmente casi cualquier dato en datos personales identificables o sensibles. Es posible que los actuales requisitos de consentimiento no aborden adecuadamente esta cuesti\u00f3n.<\/p>\n<p>Si bien las funciones manipulativas de la interfaz y la experiencia del usuario, conocidas com\u00fanmente como <a href=\"https:\/\/usercentrics.com\/knowledge-hub\/dark-patterns-and-how-they-affect-consent\/\" target=\"_blank\" rel=\"noopener\">patrones oscuros<\/a>, est\u00e1n cada vez peor vistas y, en algunos casos, se ha regulado su uso, \u00e9stas tienden a centrarse en t\u00e1cticas que ya resultan familiares. El dise\u00f1o adaptativo podr\u00eda permitir el desarrollo de formas nuevas y m\u00e1s sofisticadas de manipular a los usuarios.<\/p>\n\n\n<h2 class=\"wp-block-heading\">La pol\u00e9mica de Zoom y el consentimiento de los usuarios<\/h2>\n<p>La popular plataforma de videoconferencia Zoom actualiz\u00f3 sus t\u00e9rminos de servicio (TOS) en marzo de 2023, algo bastante com\u00fan para una empresa. Sin embargo, dos secciones parec\u00edan tener amplias implicaciones para los permisos de Zoom en relaci\u00f3n con los datos de los usuarios, denominados \u00abDatos generados por el servicio\u00bb, que incluyen telemetr\u00eda, uso de productos, diagn\u00f3sticos y datos o contenidos similares generados por el uso de Zoom y que la empresa recopila durante el uso de la plataforma.<\/p>\n<p>Los t\u00e9rminos de servicio actualizados otorgaban a Zoom todos los derechos sobre los datos generados por el servicio, incluidos los derechos a modificar, distribuir, procesar, compartir, mantener y almacenar los datos \u00abpara cualquier fin, en la medida y de la forma permitida por la legislaci\u00f3n aplicable\u00bb. Se menciona expl\u00edcitamente el derecho de Zoom a utilizar los datos de los usuarios para el aprendizaje autom\u00e1tico y la inteligencia artificial, incluidos el entrenamiento y ajuste de modelos y algoritmos.<\/p>\n<p>As\u00ed pues, Zoom podr\u00eda recopilar una gran variedad de datos de los usuarios a partir del uso de su plataforma y aplicarlos a numerosos usos, incluido el entrenamiento de IA, sin necesidad de obtener el consentimiento expl\u00edcito de los usuarios, ni de que se les permita renunciar a ello.<\/p>\n<p>Esto puede ser legal en virtud de las leyes de protecci\u00f3n de la privacidad vigentes en Estados Unidos, donde Zoom tiene su sede, ya que el pa\u00eds no tiene una \u00fanica ley federal, sino una serie de leyes a nivel estatal, pero no lo es en virtud del RGPD de la UE, que exige que el consentimiento sea \u00abinformado\u00bb, entre otros requisitos (<a href=\"https:\/\/gdpr.eu\/Recital-32-Conditions-for-consent\/\" target=\"_blank\" rel=\"noopener\">Considerando 32 del RGPD<\/a>).<\/p>\n<p>Seg\u00fan el RGPD, para que el consentimiento sea v\u00e1lido debe obtenerse antes de que comience la recopilaci\u00f3n de datos, y requiere una notificaci\u00f3n a los usuarios que sea clara y comprensible. Los t\u00e9rminos de servicio de Zoom son algo confusos al igual que los de muchas otras empresas.<\/p>\n\n\n<h3 class=\"wp-block-heading\">Respuesta de Zoom a la pol\u00e9mica sobre el cambio de los t\u00e9rminos de servicio<\/h3>\n<p>La reacci\u00f3n ante el descubrimiento y la cobertura p\u00fablica de este cambio en los t\u00e9rminos de servicio fue considerable. A las empresas les preocupaba que la informaci\u00f3n reservada de las reuniones confidenciales pudiera utilizarse sin consentimiento. Incluso que Zoom se adue\u00f1ara de sus contenidos creativos, como entrevistas para v\u00eddeos o podcasts. <\/p>\n<p>Algunas empresas estadounidenses que utilizaban Zoom con fines sanitarios entraron en p\u00e1nico ante la posibilidad de que se vulnerara la Ley de Transferencia y Responsabilidad de los Seguros M\u00e9dicos (HIPAA). Se tem\u00eda, por ejemplo, que la empresa tuviera derechos de propiedad y pudiera utilizar el contenido de las sesiones terap\u00e9uticas de los pacientes. Estos usos no eran necesariamente la intenci\u00f3n de la empresa, pero la percepci\u00f3n p\u00fablica es muy importante.<\/p>\n<p>Zoom respondi\u00f3 a la reacci\u00f3n con otra actualizaci\u00f3n de los t\u00e9rminos de servicio para aclarar el uso de los datos, afirmando que no entrenar\u00eda sus modelos de IA con el contenido de audio, v\u00eddeo o chat de los clientes sin obtener su consentimiento previo. <\/p>\n<p>Tambi\u00e9n a\u00f1adi\u00f3 una l\u00ednea en la secci\u00f3n 10.2 que indica: \u00abZoom no utiliza ninguna parte de su audio, v\u00eddeo, chat, pantalla compartida, archivos adjuntos ni otro Contenido del Cliente similar a comunicaciones (como resultados de encuestas, pizarras y reacciones) para entrenar modelos de inteligencia artificial de Zoom o de terceros\u00bb.<br \/>\nSin embargo, algunos usuarios siguen expresando su inquietud por los permisos aparentemente de gran alcance que se conceden a Zoom si se da el consentimiento, y muchos siguen sin tener claro qu\u00e9 incluye exactamente el Contenido Generado por el Servicio.<\/p>\n<h3>Otros desaf\u00edos con empresas tecnol\u00f3gicas, t\u00e9rminos y condiciones, y consentimiento<\/h3>\n<p>Es importante se\u00f1alar que Zoom no es una excepci\u00f3n. Muchas otras empresas utilizan la IA para desempe\u00f1ar funciones en sus plataformas. Google la utiliza para crear transcripciones de las llamadas de Google Meet (con resultados de calidad variable). Tambi\u00e9n se sabe que Meta, la matriz de Facebook, \u00abocultaba\u00bb el consentimiento para el uso de los datos de los usuarios en publicidad personalizada en sus t\u00e9rminos de servicio en 2022. En enero de 2023, se prohibi\u00f3 a la empresa utilizar datos personales para publicidad con este tipo de \u00abconsentimiento\u00bb, que la mayor\u00eda de usuarios desconoc\u00edan por completo. Meta ha declarado, desde ese momento, que cambiar\u00e1 su modelo y solicitar\u00e1 el consentimiento para publicidad en la UE. <\/p>\n<p>Otras empresas han sido cazadas con t\u00e1cticas igualmente poco transparentes. Algunas han sido descubiertas escondiendo el \u00abconsentimiento\u00bb o permisos cuestionables en sus t\u00e9rminos de servicio, ya que saben que pocos usuarios los leen en su totalidad. Esto es mala praxis en el mejor de los casos, e ilegal en el peor, ya que numerosas normativas exigen que el consentimiento sea informado.<\/p>\n<p>La necesidad de una mayor claridad en torno al entrenamiento de la IA, los contenidos generados por los usuarios en las plataformas y el consentimiento es un hecho patente, y se convertir\u00e1 con toda seguridad en una cuesti\u00f3n todav\u00eda m\u00e1s acuciante con el tiempo.<\/p>\n\n\n<h2 class=\"wp-block-heading\">\u00bfC\u00f3mo pueden las empresas utilizar los datos de forma \u00e9tica con el consentimiento v\u00e1lido del usuario?<\/h2>\n<p>Las empresas que adquieren datos para el entrenamiento de la IA u otros usos pueden y deben asegurarse de que se ha obtenido el consentimiento de las fuentes o los usuarios. En algunos casos puede ser un requisito para hacer negocios con socios o proveedores.<\/p>\n<p>El consentimiento tambi\u00e9n est\u00e1 adquiriendo una gran importancia para la estrategia de monetizaci\u00f3n. Por ejemplo, es cada vez m\u00e1s frecuente que los anunciantes premium insistan en una prueba de consentimiento para la recogida de datos de los usuarios antes de asociarse con desarrolladores de aplicaciones.<\/p>\n<p>Las empresas que recopilan datos de usuario de sus propias plataformas y usuarios para el entrenamiento de la IA u otros usos tienen la responsabilidad directa de obtener un consentimiento v\u00e1lido y cumplir las leyes en materia de protecci\u00f3n de datos. Existen varias maneras en que las empresas pueden lograr un cumplimiento y consentimiento v\u00e1lidos.<\/p>\n<p><strong>Transparencia<\/strong>: las leyes de privacidad exigen notificaciones claras y accesibles, y las empresas deben proporcionar informaci\u00f3n comprensible a los usuarios sobre c\u00f3mo se utilizar\u00e1n y procesar\u00e1n los datos de los usuarios, incluso para el entrenamiento de la IA. A medida que cambian los usos de los datos personales, las empresas deben actualizar sus notificaciones de privacidad, informar a los usuarios y, en virtud de un gran n\u00famero de leyes de privacidad, obtener un nuevo consentimiento para los nuevos usos de los datos personales.<\/p>\n<p><strong>Consentimiento granular<\/strong>: los usuarios deben poder aceptar o rechazar la recopilaci\u00f3n y el tratamiento de sus datos personales, pero deben poder hacerlo a un nivel granular, por ejemplo, aprobando algunos tipos de tratamiento, como la publicidad dirigida o el entrenamiento de la IA, pero no otros, como la venta de los datos. Esto tambi\u00e9n ayuda a garantizar que las personas est\u00e9n informadas, lo que constituye un requisito de obligado cumplimiento para que el consentimiento sea v\u00e1lido seg\u00fan la mayor\u00eda de las leyes de protecci\u00f3n de la privacidad.<\/p>\n<p><strong>Facilidad en el uso<\/strong>: al igual que las notificaciones deben ser claras y accesibles, la forma en que los usuarios aceptan o rechazan el consentimiento debe ser f\u00e1cil de entender y de consultar. La informaci\u00f3n para explicar a los usuarios todo lo relacionado con el tratamiento de los datos debe estar totalmente disponible, as\u00ed como la posibilidad de mostrar el consentimiento o rechazo a un nivel granular. Tambi\u00e9n debe ser tan f\u00e1cil declinar el consentimiento como aceptarlo y, seg\u00fan un gran n\u00famero de leyes en materia de privacidad, los usuarios tambi\u00e9n deben poder cambiar f\u00e1cilmente sus preferencias de consentimiento.<\/p>\n<p><strong>Familiaridad con las normativas<\/strong>: las diferentes jurisdicciones tienen distintas leyes en materia de privacidad con diferentes requisitos y modelos de consentimiento. Es importante que las empresas sepan qu\u00e9 leyes deben cumplir y c\u00f3mo hacerlo. Puede ser importante consultar o designar a un asesor jur\u00eddico cualificado o a un experto en privacidad, por ejemplo, un responsable de protecci\u00f3n de datos (DPO, por sus siglas en ingl\u00e9s), algo que tambi\u00e9n exigen algunas normativas en materia de privacidad. Esta figura ayuda a establecer directrices y procesos, a actualizar las operaciones y gestionar la seguridad de los datos y su tratamiento.<\/p>\n\n\n<h2 class=\"wp-block-heading\">\u00bfQu\u00e9 derechos tienen los usuarios de las plataformas online sobre sus datos?<\/h2>\n<p>Los derechos de los consumidores sobre sus datos personales dependen de varios factores, como el lugar de residencia del usuario y la legislaci\u00f3n vigente sobre privacidad, para qu\u00e9 sirve la plataforma y qu\u00e9 datos facilita o genera el usuario en ella, y cu\u00e1les son los t\u00e9rminos y condiciones de la plataforma.<\/p>\n<p>En la Uni\u00f3n Europea, las empresas que recopilan y procesan datos personales deben obtener el consentimiento del usuario antes de hacerlo. Esto se aplica por igual a plataformas de redes sociales, blogs, sitios web gubernamentales o tiendas de comercio electr\u00f3nico. Los datos de los usuarios pueden recopilarse para saber c\u00f3mo utilizan dichos usuarios un sitio web y mejorar su funcionamiento. Tambi\u00e9n para hacer posible el cumplimiento cuando compran algo en l\u00ednea, o para mostrarles anuncios, o entrenar modelos de IA.<\/p>\n<p>Las plataformas de todo el mundo que se emplean para actividades financieras o sanitarias tienen requisitos m\u00e1s estrictos de privacidad y seguridad en virtud de m\u00faltiples normativas debido al tipo de informaci\u00f3n que manejan.<\/p>\n<p>En algunas jurisdicciones, todav\u00eda est\u00e1 permitido mostrar un banner de cookies indicando que consiente la recopilaci\u00f3n y uso de sus datos personales si procede a utilizar el sitio o servicio. Pero en la UE y otras jurisdicciones, esto no es aceptable y se requiere un consentimiento granular.<\/p>\n\n\n<h2 class=\"wp-block-heading\">IA y cookies<\/h2>\n<p>El uso online de cookies ha ido disminuyendo a medida que existen tecnolog\u00edas m\u00e1s nuevas y mejores para lograr aquello para lo que se utilizan normalmente las cookies. La cuesti\u00f3n hoy y en el futuro no es tanto c\u00f3mo usa la IA las cookies, o c\u00f3mo podr\u00eda hacerlo, sino m\u00e1s bien c\u00f3mo podr\u00eda la IA acelerar la sustituci\u00f3n de las cookies.<\/p>\n<p>Apple y Mozilla han bloqueado las cookies de terceros, y Google tiene previsto eliminarlas por completo. Las nuevas herramientas y m\u00e9todos tambi\u00e9n permiten mejorar la privacidad de los datos y el consentimiento, y pueden dar lugar a datos de usuario de mayor calidad.<\/p>\n<p>Los modelos actuales de consentimiento de cookies pueden no ser suficientes para cubrir el uso de la IA, ya que los sistemas de IA pueden analizar grandes cantidades de datos en tiempo real, en lugar de herramientas que analizan datos de cookies activas a lo largo del tiempo. Para que el consentimiento se obtenga antes de que comience la recopilaci\u00f3n o el uso de datos, con las actuales ventanas emergentes, el usuario tendr\u00eda que ser bombardeado con banners de consentimiento m\u00e1s r\u00e1pido y m\u00e1s a menudo de lo que un humano podr\u00eda procesarlos.<\/p>\n<p>Los modelos de IA pueden permitir anuncios m\u00e1s eficaces o experiencias de usuario personalizadas sin depender de la recopilaci\u00f3n de informaci\u00f3n de identificaci\u00f3n personal, ya que pueden analizar grandes cantidades de datos muy r\u00e1pidamente para agrupar a las personas en audiencias basadas en comportamientos. Si el sistema no necesita recopilar datos del usuario, puede que no sea necesario el consentimiento, al menos para la recopilaci\u00f3n de datos.<\/p>\n<p>Es probable que las leyes y las buenas pr\u00e1cticas sigan exigiendo que se notifique a los usuarios sobre c\u00f3mo se pueden rastrear y analizar sus comportamientos, y para qu\u00e9 se puede utilizar ese an\u00e1lisis, por ejemplo, anuncios personalizados o experiencias de compra. Pero los datos personales no podr\u00edan venderse si nunca se recopilaran.<\/p>\n\n\n<h2 class=\"wp-block-heading\">\u00bfQu\u00e9 es la Ley de Inteligencia Artificial de la UE?<\/h2>\n<p>La Ley de IA de la UE es una ley en materia de inteligencia artificial (IA) propuesta por la Comisi\u00f3n Europea y ser\u00eda la primera ley integral del mundo que regula la IA. El objetivo consiste en equilibrar los usos positivos de la tecnolog\u00eda al tiempo que se mitigan los negativos y se codifican los derechos. Se pretende tambi\u00e9n aclarar un gran n\u00famero de cuestiones actuales y futuras sobre el desarrollo de la IA y convertir la Ley en un referente mundial, como se ha convertido el RGPD.<\/p>\n<p>La ley asignar\u00e1 las aplicaciones de la tecnolog\u00eda de IA a una de entre varias categor\u00edas:<\/p>\n<p><strong>Riesgo inaceptable<\/strong>: la IA que tuviera asociados riesgos inaceptables se prohibir\u00eda por completo. Por ejemplo, la herramienta de puntuaci\u00f3n social del gobierno chino<\/p>\n<p><strong>Riesgo elevado<\/strong>: IA con riesgos potenciales, permitida pero sujeta al cumplimiento de requisitos de IA y evaluaci\u00f3n de conformidad prevista. Por ejemplo, una herramienta que clasifica a los solicitantes de empleo escaneando curr\u00edculos<\/p>\n<p><strong>Riesgo medio<\/strong>: IA con obligaciones espec\u00edficas de transparencia, permitida pero sujeta a requisitos de informaci\u00f3n. Por ejemplo, los bots que pueden utilizarse para suplantar identidades<\/p>\n<p><strong>Riesgo m\u00ednimo o nulo<\/strong>: IA sin riesgos notables, permitida y sin restricciones<\/p>\n<h3>Disposiciones sobre consentimiento en la Ley de IA<\/h3>\n<p>La Ley de IA se encuentra actualmente en fase de borrador y puede cambiar antes de convertirse en ley. En la actualidad, el consentimiento del usuario y la privacidad y protecci\u00f3n de datos se abordan en sus estatutos en varios frentes:<\/p>\n<p><strong>Riesgo elevado<\/strong>: se exige el consentimiento expl\u00edcito para el uso de sistemas de IA de alto riesgo, por ejemplo en infraestructuras cr\u00edticas, empleo, sanidad y aplicaci\u00f3n de la ley.<\/p>\n<p><strong>Transparencia<\/strong>: los proveedores de IA deben proporcionar informaci\u00f3n clara sobre la finalidad, las capacidades y las limitaciones de los sistemas para garantizar que los usuarios est\u00e9n informados para tomar decisiones y comprender las posibles repercusiones en sus derechos.<\/p>\n<p><strong>Derecho a la explicaci\u00f3n<\/strong>: los usuarios tienen derecho a obtener explicaciones significativas sobre las decisiones de los sistemas de IA.<\/p>\n<p><strong>Derecho al control del usuario<\/strong>: los usuarios deben tener la posibilidad de excluirse voluntariamente, desactivar o desinstalar los sistemas de IA, especialmente cuando est\u00e9n en juego derechos o intereses fundamentales (en virtud de algunas leyes de privacidad, los usuarios tienen derecho a excluirse voluntariamente de la \u00abtoma de decisiones automatizada\u00bb).<\/p>\n<p><strong>Protecci\u00f3n de datos y privacidad<\/strong>: la Ley de IA hace hincapi\u00e9 en la necesidad de minimizar los datos, limitar su finalidad y establecer salvaguardas para proteger los datos personales cuando se utilicen sistemas de IA, y se alinea con las normativas existentes sobre privacidad de datos, como el RGPD.<\/p>\n\n\n<h2 class=\"wp-block-heading\">Conclusi\u00f3n y futuro de la IA y el consentimiento<\/h2>\n<p>La tecnolog\u00eda que implica inteligencia artificial ha llegado para quedarse. Sus capacidades y posibles casos pr\u00e1cticos seguir\u00e1n evolucionando r\u00e1pidamente. Esto supone un reto para la regulaci\u00f3n, ya que la creaci\u00f3n y actualizaci\u00f3n de leyes tiende a ser mucho m\u00e1s lenta que la velocidad a la que se desarrollan las tecnolog\u00edas.<\/p>\n<p>Sin embargo, los usuarios no deben enfrentarse al principio jur\u00eddico \u00abel comprador asume el riesgo\u00bb, especialmente en l\u00ednea, en lo que respecta a los nuevos usos de sus datos personales y los desaf\u00edos a su privacidad. Los reguladores deben elaborar y actualizar leyes que sean claras y exhaustivas, pero lo suficientemente flexibles para que puedan interpretarse y aplicarse hoy y en el futuro. <\/p>\n<p>Las organizaciones deben tener claro qu\u00e9 normas de privacidad deben cumplir, qu\u00e9 estipulan y qu\u00e9 significa esto para sus operaciones. Esto deber\u00e1 revisarse peri\u00f3dicamente a medida que cambien las operaciones y comunicarse con claridad. Intentar introducir a hurtadillas cambios en las condiciones de uso o utilizar los datos recopilados para nuevos fines sin obtener el consentimiento de los nuevos usuarios es una forma de da\u00f1ar la reputaci\u00f3n de la marca. Algo que se considera ilegal en muchas jurisdicciones. A medida que los consumidores se vuelven m\u00e1s conscientes sobre lo que implican sus datos y su privacidad, las empresas tendr\u00e1n que ser m\u00e1s claras, nunca menos, sobre su recopilaci\u00f3n y uso.<\/p>\n<p>Las empresas tambi\u00e9n deben aplicar las mejores pr\u00e1cticas, como la <a href=\"\/knowledge-hub\/what-is-privacy-by-design\/\" rel=\"noopener\" target=\"_blank\">privacidad desde el dise\u00f1o<\/a>, para garantizar que respetan a las personas, la fuente de sus datos, y que cumplen la ley. Esto tambi\u00e9n ayudar\u00e1 a garantizar que se obtenga el consentimiento y que la recopilaci\u00f3n y el uso de los datos se limiten a lo permitido por la ley para todas las operaciones, ya sea el cumplimiento de los pedidos de comercio electr\u00f3nico o el entrenamiento de nuevos modelos de IA.<\/p>\n<p>La IA es solo la \u00faltima tecnolog\u00eda que plantea nuevos retos a consumidores, empresas y reguladores por igual. No es la primera, ni ser\u00e1 la \u00faltima. Sin embargo, las buenas pr\u00e1cticas para lograr el cumplimiento, generar confianza con los usuarios y hacer crecer con \u00e9xito los negocios (o desarrollar actividades cient\u00edficas) siguen siendo las mismas y sirven tanto a las organizaciones como a los consumidores. <\/p>\n<p>Para obtener m\u00e1s informaci\u00f3n, <a href=\"\/es\/book-a-consultation\/\" rel=\"noopener\">contacte con nuestros expertos hoy mismo<\/a>.<\/p>\n\n\n\n<p><em>Usercentrics no provee asesor\u00eda legal, y la informaci\u00f3n provista tiene fines \u00fanicamente educativos. Siempre recomendamos recurrir a consultor\u00edas legales cualificadas o especialistas en privacidad en relaci\u00f3n a las cuestiones y operaciones sobre privacidad y protecci\u00f3n de datos.<\/em><\/p>\n\n\n","protected":false},"excerpt":{"rendered":"<p>El entrenamiento de sistemas de IA es, tan solo,el uso m\u00e1s reciente que se le ha dado a los datos personales de los usuarios que las empresas recopilan online. Pero la informaci\u00f3n sobre c\u00f3mo se utilizan estos datos, qu\u00e9 consentimiento es necesario y c\u00f3mo se regulan dichos datos no siempre est\u00e1 clara. De hecho, ya se han planteado importantes dudas sobre la privacidad de los datos y el consentimiento en la IA.<\/p>\n","protected":false},"featured_media":3524,"template":"","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"tags":[],"magazine_issue":[],"magazine_tag":[],"resource_tag":[],"class_list":["post-3522","knowledge","type-knowledge","status-publish","has-post-thumbnail","hentry"],"acf":[],"yoast_head":"<title>Inteligencia aritificial, datos personales y consentimiento<\/title>\n<meta name=\"description\" content=\"El entrenamiento de la IA es el nuevo uso de los datos por las empresas. Hay dudas sobre c\u00f3mo se utilizan dichos datos y qu\u00e9 consentimiento necesita la IA.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Inteligencia aritificial, datos personales y consentimiento\" \/>\n<meta property=\"og:description\" content=\"El entrenamiento de la IA es el nuevo uso de los datos por las empresas. Hay dudas sobre c\u00f3mo se utilizan dichos datos y qu\u00e9 consentimiento necesita la IA\" \/>\n<meta property=\"og:url\" content=\"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/\" \/>\n<meta property=\"og:site_name\" content=\"Consent Management Platform (CMP) Usercentrics\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/usercentrics\" \/>\n<meta property=\"article:modified_time\" content=\"2024-09-05T10:19:38+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/usercentrics.com\/wp-content\/uploads\/sites\/6\/2023\/11\/AI-consent.png\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:title\" content=\"Inteligencia aritificial, datos personales y consentimiento\" \/>\n<meta name=\"twitter:description\" content=\"El entrenamiento de la IA es el nuevo uso de los datos por las empresas. Hay dudas sobre c\u00f3mo se utilizan dichos datos y qu\u00e9 consentimiento necesita la IA\" \/>\n<meta name=\"twitter:image\" content=\"https:\/\/usercentrics.com\/wp-content\/uploads\/sites\/6\/2023\/11\/AI-consent.png\" \/>\n<meta name=\"twitter:site\" content=\"@usercentrics\" \/>\n<meta name=\"twitter:label1\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data1\" content=\"27 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/knowledge-hub\\\/inteligencia-artificial-ia-y-consentimiento\\\/\",\"url\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/knowledge-hub\\\/inteligencia-artificial-ia-y-consentimiento\\\/\",\"name\":\"Inteligencia aritificial, datos personales y consentimiento\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/knowledge-hub\\\/inteligencia-artificial-ia-y-consentimiento\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/knowledge-hub\\\/inteligencia-artificial-ia-y-consentimiento\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/wp-content\\\/uploads\\\/sites\\\/6\\\/2023\\\/11\\\/AI-consent.svg?v=430388602638e7ca\",\"datePublished\":\"2023-11-23T10:15:12+00:00\",\"dateModified\":\"2024-09-05T10:19:38+00:00\",\"description\":\"El entrenamiento de la IA es el nuevo uso de los datos por las empresas. Hay dudas sobre c\u00f3mo se utilizan dichos datos y qu\u00e9 consentimiento necesita la IA.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/knowledge-hub\\\/inteligencia-artificial-ia-y-consentimiento\\\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/knowledge-hub\\\/inteligencia-artificial-ia-y-consentimiento\\\/\"}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/knowledge-hub\\\/inteligencia-artificial-ia-y-consentimiento\\\/#primaryimage\",\"url\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/wp-content\\\/uploads\\\/sites\\\/6\\\/2023\\\/11\\\/AI-consent.svg?v=430388602638e7ca\",\"contentUrl\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/wp-content\\\/uploads\\\/sites\\\/6\\\/2023\\\/11\\\/AI-consent.svg?v=430388602638e7ca\",\"caption\":\"El entrenamiento de la IA es el nuevo uso de los datos por las empresas. Hay dudas sobre c\u00f3mo se utilizan dichos datos y qu\u00e9 consentimiento necesita la IA\",\"copyrightNotice\":\"\u00a9 Copyright 2026 Usercentrics GmbH\",\"creator\":{\"@type\":\"Organization\",\"name\":\"Usercentrics GmbH\"},\"creditText\":\"Image: Usercentrics GmbH\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/knowledge-hub\\\/inteligencia-artificial-ia-y-consentimiento\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Recursos\",\"item\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/resources\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Blog\",\"item\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/knowledge-hub\\\/\"},{\"@type\":\"ListItem\",\"position\":3,\"name\":\"Inteligencia artificial (IA), datos personales y consentimiento\",\"item\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/knowledge-hub\\\/inteligencia-artificial-ia-y-consentimiento\\\/\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/#website\",\"url\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/\",\"name\":\"Consent Management Platform (CMP) Usercentrics\",\"description\":\"Consent Management Platform (CMP) Usercentrics\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/usercentrics.com\\\/es\\\/?s={search_term_string}\"}}],\"inLanguage\":\"es\"}]}<\/script>","yoast_head_json":{"title":"Inteligencia aritificial, datos personales y consentimiento","description":"El entrenamiento de la IA es el nuevo uso de los datos por las empresas. Hay dudas sobre c\u00f3mo se utilizan dichos datos y qu\u00e9 consentimiento necesita la IA.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/","og_locale":"es_ES","og_type":"article","og_title":"Inteligencia aritificial, datos personales y consentimiento","og_description":"El entrenamiento de la IA es el nuevo uso de los datos por las empresas. Hay dudas sobre c\u00f3mo se utilizan dichos datos y qu\u00e9 consentimiento necesita la IA","og_url":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/","og_site_name":"Consent Management Platform (CMP) Usercentrics","article_publisher":"https:\/\/www.facebook.com\/usercentrics","article_modified_time":"2024-09-05T10:19:38+00:00","og_image":[{"url":"https:\/\/usercentrics.com\/wp-content\/uploads\/sites\/6\/2023\/11\/AI-consent.png","type":"","width":"","height":""}],"twitter_card":"summary_large_image","twitter_title":"Inteligencia aritificial, datos personales y consentimiento","twitter_description":"El entrenamiento de la IA es el nuevo uso de los datos por las empresas. Hay dudas sobre c\u00f3mo se utilizan dichos datos y qu\u00e9 consentimiento necesita la IA","twitter_image":"https:\/\/usercentrics.com\/wp-content\/uploads\/sites\/6\/2023\/11\/AI-consent.png","twitter_site":"@usercentrics","twitter_misc":{"Est. reading time":"27 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/","url":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/","name":"Inteligencia aritificial, datos personales y consentimiento","isPartOf":{"@id":"https:\/\/usercentrics.com\/es\/#website"},"primaryImageOfPage":{"@id":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/#primaryimage"},"image":{"@id":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/#primaryimage"},"thumbnailUrl":"https:\/\/usercentrics.com\/es\/wp-content\/uploads\/sites\/6\/2023\/11\/AI-consent.svg?v=430388602638e7ca","datePublished":"2023-11-23T10:15:12+00:00","dateModified":"2024-09-05T10:19:38+00:00","description":"El entrenamiento de la IA es el nuevo uso de los datos por las empresas. Hay dudas sobre c\u00f3mo se utilizan dichos datos y qu\u00e9 consentimiento necesita la IA.","breadcrumb":{"@id":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/"}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/#primaryimage","url":"https:\/\/usercentrics.com\/es\/wp-content\/uploads\/sites\/6\/2023\/11\/AI-consent.svg?v=430388602638e7ca","contentUrl":"https:\/\/usercentrics.com\/es\/wp-content\/uploads\/sites\/6\/2023\/11\/AI-consent.svg?v=430388602638e7ca","caption":"El entrenamiento de la IA es el nuevo uso de los datos por las empresas. Hay dudas sobre c\u00f3mo se utilizan dichos datos y qu\u00e9 consentimiento necesita la IA","copyrightNotice":"\u00a9 Copyright 2026 Usercentrics GmbH","creator":{"@type":"Organization","name":"Usercentrics GmbH"},"creditText":"Image: Usercentrics GmbH"},{"@type":"BreadcrumbList","@id":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Recursos","item":"https:\/\/usercentrics.com\/es\/resources\/"},{"@type":"ListItem","position":2,"name":"Blog","item":"https:\/\/usercentrics.com\/es\/knowledge-hub\/"},{"@type":"ListItem","position":3,"name":"Inteligencia artificial (IA), datos personales y consentimiento","item":"https:\/\/usercentrics.com\/es\/knowledge-hub\/inteligencia-artificial-ia-y-consentimiento\/"}]},{"@type":"WebSite","@id":"https:\/\/usercentrics.com\/es\/#website","url":"https:\/\/usercentrics.com\/es\/","name":"Consent Management Platform (CMP) Usercentrics","description":"Consent Management Platform (CMP) Usercentrics","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/usercentrics.com\/es\/?s={search_term_string}"}}],"inLanguage":"es"}]}},"_links":{"self":[{"href":"https:\/\/usercentrics.com\/es\/wp-json\/wp\/v2\/knowledge\/3522","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/usercentrics.com\/es\/wp-json\/wp\/v2\/knowledge"}],"about":[{"href":"https:\/\/usercentrics.com\/es\/wp-json\/wp\/v2\/types\/knowledge"}],"version-history":[{"count":0,"href":"https:\/\/usercentrics.com\/es\/wp-json\/wp\/v2\/knowledge\/3522\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/usercentrics.com\/es\/wp-json\/wp\/v2\/media\/3524"}],"wp:attachment":[{"href":"https:\/\/usercentrics.com\/es\/wp-json\/wp\/v2\/media?parent=3522"}],"wp:term":[{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/usercentrics.com\/es\/wp-json\/wp\/v2\/tags?post=3522"},{"taxonomy":"magazine_issue","embeddable":true,"href":"https:\/\/usercentrics.com\/es\/wp-json\/wp\/v2\/magazine_issue?post=3522"},{"taxonomy":"magazine_tag","embeddable":true,"href":"https:\/\/usercentrics.com\/es\/wp-json\/wp\/v2\/magazine_tag?post=3522"},{"taxonomy":"resource_tag","embeddable":true,"href":"https:\/\/usercentrics.com\/es\/wp-json\/wp\/v2\/resource_tag?post=3522"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}