¿Cuáles son los riesgos potenciales asociados con la IA como ChatGPT?
La aplicación de la inteligencia artificial se está volviendo cada vez más generalizada y nos trae mucha conveniencia, pero la aplicación popular de la inteligencia artificial también enfrenta algunos riesgos, como:
1. Información falsa
Chatgpt enfrentó su primera demanda de difamación.El defensor de los derechos de armas y presentador de radio Mark Walters presentó una demanda contra OpenAi en el tribunal estatal en el condado de Gwinnett, Georgia, EE. UU., Buscando daños generales y punitivos y otros alivios.
Mark Walters dijo que un reportero, Riehl, interactuó con ChatGPT sobre un caso presentado por la Fundación de la Segunda Enmienda (SAF), que respondió que el caso fue presentado por los fundadores de la Fundación de la Segunda Enmienda contra Mark Walters, alegando que mientras servía como la organización de la organizaciónTesorero y director financiero, defraudó la base de los fondos y luego manipuló los estados bancarios y omitió la información financiera adecuada para revelar a los líderes del grupo para ocultar su robo.
Mark Walters aclaró en la demanda que no estaba en ningún momento asociado o empleado por la Fundación.La publicación tecnológica ARS Technica informa que los comentarios de Mark Walters sobre los derechos de las armas y la Fundación de la Segunda Enmienda pueden haber llevado a ChatGPT a conectarse por error.
Cuando los periodistas le preguntaron las quejas sobre Mark Walters, el chatbot proporcionó más detalles alucinantes que no se parecían a las quejas reales, como "Mark Walters ha servido como tesorero y CFO en SAF desde al menos 2012".
Los hechos en cuestión en este caso destacan los peligros potenciales para los usuarios de AI Chatbot.Los sistemas generativos de inteligencia artificial (IA) tienen la capacidad de imitar a los individuos, lo que lleva a la proliferación de desinformación avanzada y actividad fraudulenta.
Según los informes, esta no es la primera vez que un programa de IA ha dado a los usuarios información falsa.En abril, un alcalde australiano consideró públicamente demandar a OpenAi si la compañía no resolvió acusaciones inexactas del presunto escándalo de soborno de Chatgpt.Casi al mismo tiempo, un profesor de derecho en la Universidad George Washington (GWU) publicó un artículo de opinión que describe cómo la universidad lo acusó erróneamente de acosar a los estudiantes sexualmente.La semana pasada, un abogado de lesiones personales de Nueva York se vio obligado a explicar sus acciones después de confiar erróneamente en ChatGPT para la investigación legal y citar brevemente la jurisprudencia completamente inexistente.
2. Privacidad y seguridad
Los modelos capacitados en datos personales pueden producir información altamente realista e identificable, creando riesgos de privacidad y seguridad.Esta preocupación se extiende más allá del ámbito de la privacidad personal y la seguridad para incluir consideraciones más amplias.En abril de 2023, Samsung prohibió a los empleados usar CHATGPT debido a las preocupaciones de que el código sensible interno cargado podría estar disponible para otros usuarios.
3. Sesgo y discriminación
La generación de sistemas de IA puede reflejar los sesgos presentes en sus datos de capacitación y consolidar narrativas discriminatorias.Uno de los problemas destacados planteados por los expertos es la importancia de mejorar la transparencia de los sistemas de IA.Sin embargo, una comprensión integral de cómo los sistemas generativos de inteligencia artificial (IA) están capacitados puede ser un objetivo inalcanzable.La combinación de algoritmos de capacitación complejos, consideraciones patentadas, requisitos de datos a gran escala, procesos iterativos y la naturaleza en constante cambio de los desafíos de investigación y desarrollo que pueden limitar la transparencia y dificultar la comprensión de la complejidad del proceso de capacitación.
4. INFLACIÓN DE PROPIEDAD INTELECTUAL
Los sistemas generativos de inteligencia artificial (IA) plantean preguntas sobre los derechos de propiedad intelectual y las implicaciones de generar obras con derechos de autor.
En los Estados Unidos, el marco propuesto de gestión de riesgos de inteligencia artificial (IA) requiere que los datos de capacitación con derechos de autor cumplan con las leyes de propiedad intelectual relevantes.
Mientras tanto, el Artículo 28B (4) (c) de la Ley de borradores de inteligencia artificial (IA) de la UE obliga a los proveedores de sistemas de IA generativos para revelar públicamente los datos de capacitación utilizados que están protegidos por la ley de derechos de autor.Esta disposición de transparencia prevalece sobre la prohibición general sobre el uso de material con derechos de autor como datos de capacitación.
5. Ser utilizado por violaciones penales
El uso de inteligencia artificial (IA) por delincuentes para generar rápidamente audio falso, video, imágenes y mensajes de texto fraudulentos, correos electrónicos y otro contenido ha exacerbado los problemas que enfrentamos, lo que nos permite bombardear con spam, mensajes de texto fraudulentos,Llamadas telefónicas maliciosas y criminales y varias formas de fraude y engaño en cualquier momento.Este contenido fraudulento puede generarse personalizado para todos, e incluso el altamente educado y tecnológicamente calificado puede ser engañado.
Además del rápido intercambio de caras de IA, sintetizar o clonar voces con medios AI se está volviendo más común.Simplemente proporcione a alguien un clip de sonido de 10 minutos a 30 minutos, que no requiere murmullos, y tomará aproximadamente 2 días generar un modelo exclusivo, con cualquier entrada de texto posterior, emitiendo la voz de la persona.Si alguien genera deliberadamente un video de su apariencia con su voz, solo cuesta decenas de dólares.
Además, algunos delincuentes usan AI para generar rápidamente un código de software que se puede utilizar para ataques de red y robo de información, lo que aumenta en gran medida su capacidad para atacar y robar información.
6. Manipulación de opinión
Además de las actividades criminales mencionadas anteriormente, las nuevas capacidades de IA también se utilizan en las áreas de terrorismo, propaganda política y desinformación.
El contenido generado por IA (por ejemplo, defectos profundos) contribuye a la propagación de la desinformación y la manipulación de la opinión pública.Los esfuerzos para detectar y combatir la información errónea generada por AI son críticos para mantener la integridad de la información en la era digital.
Los profundos impregnan las esferas políticas y sociales a medida que los medios y las noticias en línea se vuelven más oscuros.La tecnología facilita el reemplazo de una imagen de una persona con otra en una imagen o video.Como resultado, los malos actores tienen otra vía para difundir la información errónea y la propaganda de guerra, creando un escenario de pesadilla en el que es casi imposible distinguir las noticias creíbles de las noticias falsas.
7. Accidentes
En 2018, los autos autónomos utilizados por la compañía de viajes compartidos Uber golpeó y mataron a un peatón en un accidente de manejo.La excesiva dependencia de la IA puede provocar mal funcionamiento de la máquina que pueden causar lesiones.Los modelos utilizados en la atención médica pueden conducir a un diagnóstico erróneo.
La IA también puede dañar a los humanos de otras formas no físicas si no se regula cuidadosamente.Por ejemplo, el desarrollo de drogas, vacunas o virus que representan una amenaza y daño para los humanos.
8. Riesgo de aplicaciones militares
Según The Guardian, en la Future Air Warfare Capentity Cumence en Londres en mayo, el coronel Tucker Simcoe Hamilton, quien está a cargo de las pruebas y operaciones de IA para la Fuerza Aérea de los Estados Unidos, dijo que la IA usó tácticas muy inesperadas para lograr sus objetivos en simulaciones.En una prueba virtual realizada por el ejército de los EE. UU., Un dron de la Fuerza Aérea controlada por la inteligencia artificial decidió "matar" a su operador para evitar que interfiera con sus esfuerzos para completar su misión.