Samsung ha dicho al personal que deje de usar herramientas generativas de inteligencia artificial como ChatGPT y Bard por preocupaciones de que representan un riesgo de seguridad, informó Bloomberg el lunes.
La medida sigue a una serie de vergonzosos errores el mes pasado cuando los empleados de Samsung supuestamente alimentaron datos confidenciales relacionados con semiconductores en ChatGPT en tres ocasiones.
ChatGPT, al igual que otras herramientas de IA generativa, está parcialmente entrenado en los datos enviados, por lo que cualquier cosa que Samsung alimente podría aparecer en respuesta a una consulta realizada por otro usuario en cualquier parte del mundo, aunque el desarrollador de ChatGPT, OpenAI, agregó recientemente un modo de incógnito que permite a los usuarios bloquear sus entradas para el entrenamiento de modelos de IA. OpenAI también puede ver los datos mientras revisa las conversaciones para mejorar sus sistemas y garantizar que el contenido cumpla con sus políticas y requisitos de seguridad.
Seguir Leyendo..!