ChatGPT bajo amenaza de los reguladores europeos

El viernes, los reguladores italianos impusieron una prohibición inmediata a la herramienta de IA generativa ChatGPT y le dieron a su desarrollador OpenAI 20 días para plantear inquietudes sobre la forma en que se recopilan y procesan los datos, bajo pena de una multa de 21,7 millones de dólares estadounidenses o hasta el 4% de la tasa anual. ventas (lo que sea mayor).

Hubo indicios de que otros reguladores europeos podrían seguir su ejemplo rápidamente. Los informes sugieren que Francia está realizando su propia investigación; Irlanda ha pedido a Italia más detalles sobre la base de la prohibición; y el Comisionado de Protección de Datos alemán ha dicho que la misma medida "en principio" debería tomarse en Alemania.

Por qué nos importa. Dado el tremendo entusiasmo creado por la disponibilidad de ChatGPT y herramientas similares, tal vez fue demasiado fácil pasar por alto las advertencias que han estado saliendo de la profesión legal en los últimos meses de que pueden estar infringiendo las regulaciones de datos europeas, regulaciones que se están convirtiendo en un estándar global de facto en muchos sentidos.

Por supuesto, si los problemas emergentes tienen que abrirse camino a través del sistema legal europeo hasta la jurisprudencia, puede tomar algún tiempo, pero está claro que los reguladores en los estados europeos pueden actuar rápidamente mientras tanto.

Profundizando: ChatGPT: una guía para especialistas en marketing

Bases legales para el tratamiento de datos. Un desafío fundamental para los grandes modelos de lenguaje como ChatGPT es que según la ley europea, específicamente el RGPD, solo existen seis bases legales para procesar datos personales (datos que pueden usarse directamente para identificar a una persona o indirectamente para identificar a una persona) con otra información) Los conceptos básicos son:

  • Aprobación.
  • ejecución de un contrato.
  • Un Interés Legítimo.
  • Un interés vital (una cuestión de vida o muerte).
  • Un requisito legal.
  • Un interés público.
Artículo Recomendado:  Los 10 mejores temas de WordPress para ofertas diarias

En la medida en que un modelo de lenguaje grande se entrene con datos obtenidos sin consentimiento explícito, no está claro que alguna de estas bases se aplique a menos que se asuma audazmente que la disponibilidad de soluciones de IA es de interés público.

borrado de datos Otro desafío es si una solución de ChatGPT es adecuada para respaldar el "derecho al olvido". Bajo GDPR, un individuo puede hacer una solicitud bajo ciertas circunstancias la eliminación de sus datosPara ser claros, ChatGPT no raspa la web y recopila sin pensar grandes cantidades de datos personales, pero se entrena con grandes cantidades de texto, y la pregunta que OpenAI debería hacerse es si sabe lo que contienen estos conjuntos. de términos de información personal o datos que pueden necesitar ser eliminados.

¡Consigue Aprendermarketing! Entregado diariamente a su bandeja de entrada de forma gratuita.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir

https://kirin-mountainview.com/

https://www.bamboo-thai.com/