Funcionarios canadienses afirman que OpenAI viola las leyes de privacidad federales y provinciales




Philippe Dufresne, Comisionado de Privacidad de Canadá, han sido encontrados OpenAI “no cumplió” con las leyes de privacidad federales y provinciales de Canadá en el entrenamiento de sus modelos de IA. Después de realizar una investigación, Dufresne y sus colegas en Alberta, Quebec y Columbia Británica dijeron que el enfoque de OpenAI en aspectos como la recopilación de datos y el consentimiento viola muchas leyes, incluida la ley canadiense. Ley de Protección de Información Personal y Documentos Electrónicos (PIPEDA), que regula cómo las empresas recopilan y utilizan información personal durante el curso normal de sus negocios.

Los comisionados que participaron en la investigación identificaron varios problemas de privacidad en el enfoque de OpenAI, incluido el hecho de que la empresa “recopiló grandes cantidades de información personal sin las salvaguardias adecuadas para impedir el uso de esa información para entrenar sus modelos” y que la empresa no obtuvo permiso para recopilar y utilizar esa información personal. La advertencia en ChatGPT señala que las interacciones con la IA pueden usarse en el entrenamiento, pero los datos de terceros que OpenAI compra o captura también incluyen detalles personales que las personas pueden no conocer. El hecho de que los usuarios de ChatGPT no tengan forma de acceder, corregir o eliminar esos datos es otro problema identificado por el comisionado, según resumen de los resultados de la investigaciónjunto con los deslucidos intentos de OpenAI de reconocer la inexactitud de algunas respuestas de ChatGPT.

El Comisionado de Privacidad de Canadá sostiene que OpenAI está abierto y receptivo a la investigación, y se ha comprometido a realizar muchos cambios en ChatGPT para cumplir con las leyes de privacidad canadienses. OpenAI ha retirado modelos anteriores que violaban las regulaciones de privacidad canadienses y ahora utiliza “herramientas de filtrado para detectar y enmascarar información personal (como nombres o números de teléfono) en datos de Internet de acceso público y conjuntos de datos con licencia utilizados para entrenar sus modelos”, dijo el Comisionado. La compañía también acordó en los próximos tres meses agregar nuevos avisos a la versión saliente de ChatGPT, explicando que el chat se puede usar para capacitación y que la información confidencial no debe compartirse, y en los próximos seis meses:

Aunque en 2023 se abrió una investigación canadiense sobre las políticas de privacidad de OpenAI, la compañía ha recibido recientemente el escrutinio de los reguladores debido a su relación con tiroteo masivo que ocurrió en Tumbler Ridge en febrero de 2026. OpenAI reportado haber sido marcado El relato del presunto tirador en 2025 porque contenía advertencias de violencia en el mundo real, pero no logró transmitir esas preocupaciones a las autoridades canadienses. Después del tiroteo, los reguladores pidieron a la compañía que cambiara su enfoque en materia de seguridad y OpenAI finalmente acordó colaborar más con las autoridades sanitarias y policiales canadienses en el futuro.





Source link