Descripción
Es posible que se incluya información confidencial como parte del aviso que se envía al modelo.
¿Por qué los datos confidenciales son motivo de preocupación para los modelos de base?
Si no se desarrolla correctamente para proteger los datos confidenciales, el modelo puede revelar información confidencial o IP en la salida generada. Además, la información confidencial de los usuarios finales podría recopilarse y almacenarse involuntariamente.
Divulgación de información confidencial
Según el artículo de la fuente, los empleados de Samsung revelaron información confidencial a OpenAI a través de su uso de ChatGPT. En un caso, un empleado ha pegado el código fuente confidencial para comprobar si hay errores. En otra, un empleado compartió código con ChatGPT y "solicitó la optimización del código". Un tercero compartió una grabación de una reunión para convertirla en notas para una presentación. Samsung tiene un uso interno limitado de ChatGPT en respuesta a estas incidencias, pero es poco probable que puedan recuperar alguno de sus datos. Adicionalmente, el artículo destacó que en respuesta al riesgo de filtrar información confidencial y otra información sensible, empresas como Apple, JPMorgan Chase. Deutsche Bank, Verizon, Walmart, Samsung, Amazon y Accenture han impuesto varias restricciones al uso de ChatGPT.
Tema principal: Atlas de riesgo de IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.