Riesgos potenciales de seguridad de la red de chatgpt
ChatGPT es una nueva herramienta de procesamiento de lenguaje natural de inteligencia artificial lanzada por OpenAI.En el sitio web oficial de Openai, ChatGPT se describe como un modelo de idioma para optimizar el diálogo.Puede realizar conversaciones aprendiendo y comprendiendo el lenguaje humano, y también puede interactuar de acuerdo con el contexto del chat.Realmente puede chatear y comunicarse como un ser humano, e incluso puede completar tareas como escribir correos electrónicos, scripts de video, redacción, traducción y código.
Operai abrió la prueba de ChatGPT el 30 de noviembre de 2022, y ChatGPT se ha vuelto popular en todo el mundo desde entonces.Dos meses después, ChatGPT llegó a 100 millones de usuarios, con aproximadamente 590 millones de visitas en enero.Los analistas de UBS escribieron en el informe que esta es la aplicación de consumo de más rápido crecimiento en el campo de Internet en 20 años.
Según los informes de los medios, la explosión inicial de ChatGPT se derivó del hecho de que un ingeniero inducía a escribir un plan para destruir la humanidad.El contenido del plan incluso se detalla para invadir los sistemas informáticos de varios países, controlar las armas, destruir los sistemas de comunicación y transporte, etc., e incluso dar el código Python correspondiente.
Esto no es sensacional.Unas semanas después de su lanzamiento de ChatGPT, varias firmas de seguridad cibernética en todo el mundo han publicado una serie de informes que demuestran que el bot puede usarse para escribir malware.Hasta ahora, la compañía de inteligencia de amenazas estadounidense registrada Future ha encontrado más de 1,500 referencias en la web oscura sobre el uso de ChatGPT para desarrollar malware y crear códigos de prueba de concepto, la mayoría de los cuales están disponibles públicamente.
Desde que ChatGPT se hizo popular, se han realizado más discusiones sobre temas de seguridad de datos.
1. Problema de fuga de datos.
Cuando los empleados usan CHATGPT para el trabajo auxiliar, el riesgo de fuga en secreto para el negocio también aumenta.En enero de 2023, un ingeniero senior en la oficina del Director de Tecnología de Microsoft respondió que se le permite usar ChatGPT en el trabajo siempre que no comparta información confidencial con ChatGPT.Los abogados corporativos de Amazon advirtieron de manera similar a los empleados que no compartan ninguna información confidencial de Amazon con ChatGPT, ya que la información ingresada podría usarse como datos de capacitación para más iteraciones de ChatGPT.
2. La cuestión del derecho a eliminar.
Aunque ChatGPT promete eliminar toda la información de identificación personal de los registros que utiliza, ChatGPT no explica cómo elimina la información, y dado que los datos recopilados se utilizarán para el aprendizaje continuo de ChatGPT, es difícil garantizar una borrada completa de trazas de información personal.
3. Problemas de cumplimiento de la adquisición del corpus.
Alexander, miembro del grupo de expertos de la Junta de Protección de Datos Europea (EDPB), dijo que el método de ChatGPT para obtener datos debe divulgarse por completo.Si ChatGPT obtiene sus datos de capacitación rastreando información en Internet, puede no ser legal.
Además, el uso malicioso de los usuarios de CHATGPT también traerá muchos problemas de seguridad de datos.Por ejemplo, use la capacidad de escribir en lenguaje natural para escribir malware para evadir la detección de software antivirus;Use la función de escritura de ChatGPT para generar correos electrónicos de phishing;Use la función de diálogo para fingir ser una persona u organización real para defraudar a otros.
En este contexto, OpenAI ha emitido una advertencia pública de que los reguladores ahora deben intervenir para evitar que los sistemas de IA generativos, como ChatGPT, afecten potencialmente negativamente a la sociedad.