Académie OSINT

Quels sont les risques potentiels associés à l'IA tels que le chatgpt?

AI

L'application de l'intelligence artificielle devient de plus en plus répandue et nous apporte beaucoup de commodité, mais l'application populaire de l'intelligence artificielle fait également face à certains risques, tels que:

1. Faux informations

Chatgpt a fait face à son premier procès en diffamation.Le défenseur des droits des armes à feu et l'hôte de l'émission de radio Mark Walters ont déposé une plainte contre Openai devant le tribunal d'État dans le comté de Gwinnett, en Géorgie, aux États-Unis, en demandant des dommages-intérêts généraux et punitifs et d'autres réparations.

Mark Walters a déclaré qu'un journaliste, Riehl, a interagi avec Chatgpt à propos d'une affaire déposée par la Second Amendment Foundation (SAF), qui a répondu que l'affaire avait été déposée par les fondateurs de la Fondation du deuxième amendement contre Mark Walters, alléguant que, tout en étant l'organisation de l'organisationTrésorier et directeur financier, il a fraudé les fondements des fonds, puis manipulé les déclarations bancaires et omettant des informations financières appropriées pour divulguer aux dirigeants du groupe afin de cacher son vol.

Mark Walters a précisé dans le procès qu'il n'était à aucun moment associé ou employé par la Fondation.La publication technologique ARS Technica rapporte que les commentaires de Mark Walters sur les droits des armes à feu et la deuxième fondation amendement ont peut-être conduit Chatgpt pour se connecter par erreur.

Lorsqu'on lui a demandé par les journalistes pour des extraits de plaintes concernant Mark Walters, le chatbot a fourni plus de détails hallucinants qui ne ressemblaient pas aux plaintes réelles, telles que "Mark Walters a été trésorier et directeur financier chez SAF depuis au moins 2012".

Les faits en cause dans ce cas mettent en évidence les dangers potentiels pour les utilisateurs de chatbot AI.Les systèmes génératifs de l'intelligence artificielle (IA) ont la capacité d'imiter les individus, conduisant à la prolifération de la désinformation avancée et de l'activité frauduleuse.

Ce ne serait pas la première fois qu'un programme d'IA a donné aux utilisateurs de fausses informations.En avril, un maire australien a publiquement envisagé de poursuivre Openai si la société ne résolvait pas les allégations inexactes du scandale présumé de la corruption de Chatgpt.À peu près à la même époque, un professeur de droit à l'Université George Washington (GWU) a publié un éditorial décrivant comment l'université l'a accusé à tort de harceler sexuellement les étudiants.La semaine dernière, un avocat de New York a été contraint d'expliquer ses actions après avoir été à tort sur Chatgpt pour la recherche juridique et invoquant brièvement la jurisprudence complètement inexistante.

2. Confidentialité et sécurité

Les modèles formés sur des données personnelles peuvent produire des informations très réalistes et identifiables, créant des risques de confidentialité et de sécurité.Cette préoccupation s'étend au-delà du domaine de la vie privée et de la sécurité personnelle pour inclure des considérations plus larges.En avril 2023, Samsung a interdit aux employés d'utiliser Chatgpt en raison des préoccupations selon lesquelles le code sensible interne téléchargé pourrait être mis à la disposition d'autres utilisateurs.

3. Biais et discrimination

La génération de systèmes d'IA peut refléter les biais présents dans leurs données de formation et consolider les récits discriminatoires.L'une des questions importantes soulevées par les experts est l'importance d'améliorer la transparence des systèmes d'IA.Cependant, une compréhension complète de la formation des systèmes générateurs de l'intelligence artificielle (IA) peut être un objectif inaccessible.La combinaison d'algorithmes de formation complexes, de considérations propriétaires, de données sur les données à grande échelle, de processus itératifs et de la nature en constante évolution de la recherche et du développement posent des défis qui peuvent limiter la transparence et rendre difficile la compréhension approfondie de la complexité du processus de formation.

4. Infraction de la propriété intellectuelle

Les systèmes génératifs de l'intelligence artificielle (IA) soulèvent des questions sur les droits de propriété intellectuelle et les implications de la génération d'œuvres protégées par le droit d'auteur.

Aux États-Unis, le cadre proposé de la gestion des risques de l'intelligence artificielle (IA) exige que les données de formation protégées par le droit d'auteur respectent les lois pertinentes sur la propriété intellectuelle.

Pendant ce temps, l'article 28B (4) (c) de la loi de l'UE sur la loi sur l'intelligence artificielle (AI) oblige les fournisseurs de systèmes d'IA génératifs pour divulguer publiquement les données de formation utilisées qui sont protégées par la loi sur le droit d'auteur.Cette disposition de transparence prévaut sur l'interdiction de la couverture sur l'utilisation du matériel protégé par le droit d'auteur comme données de formation.

5. Être utilisé pour les violations criminelles

L'utilisation de l'intelligence artificielle (IA) par des criminels pour générer rapidement de faux audio, vidéo, images et messages texte, e-mails et autres contenus frauduleux a exacerbé les problèmes auxquels nous sommes confrontés, ce qui nous permet de bombarder de spam, de messages texte frauduleux,Des appels téléphoniques malveillants et criminels et diverses formes de fraude et de tromperie à tout moment.Ce contenu frauduleux peut être généré sur mesure pour tout le monde, et même le très instruit et technologiquement qualifié peut être trompé.

En plus de l'échange rapide des visages d'IA, de la synthèse ou du clonage des voix avec des moyens d'IA devient plus courante.Fournissez simplement à quelqu'un un clip sonore de 10 minutes à 30 minutes, ne nécessitant aucun murmure, et il faudra environ 2 jours pour générer un modèle exclusif, avec toute entrée de texte ultérieure, émettant la voix de la personne.Si quelqu'un génère délibérément une vidéo de vos looks avec votre voix, cela ne coûte que des dizaines de dollars.

De plus, certains criminels utilisent l'IA pour générer rapidement du code logiciel qui peut être utilisé pour les attaques de réseau et le vol d'information, augmentant considérablement leur capacité à attaquer et à voler des informations.

6. Manipulation d'opinion

En plus des activités criminelles susmentionnées, de nouvelles capacités d'IA sont également utilisées dans les domaines du terrorisme, de la propagande politique et de la désinformation.

Le contenu généré par l'AI (par exemple, DeepFakes) contribue à la propagation de la désinformation et à la manipulation de l'opinion publique.Les efforts pour détecter et lutter contre la désinformation générée par l'AI-AI sont essentiels pour maintenir l'intégrité des informations à l'ère numérique.

Deepfakes imprègnent les sphères politiques et sociales à mesure que les médias et les nouvelles en ligne deviennent plus obscures.La technologie facilite le remplacement d'une image d'une personne par une autre dans une image ou une vidéo.En conséquence, les mauvais acteurs ont une autre avenue pour répandre la désinformation et la propagande de guerre, créant un scénario cauchemardesque où il est presque impossible de distinguer les nouvelles crédibles des fausses nouvelles.

7. accidents

En 2018, les voitures autonomes utilisées par la société de covoiturage Uber ont frappé et tué un piéton dans un accident de conduite.La dépendance excessive sur l'IA peut entraîner des dysfonctionnements de la machine qui peuvent provoquer des blessures.Les modèles utilisés dans les soins de santé peuvent conduire à un diagnostic erroné.

L'IA peut également nuire aux humains d'autres manières non physiques si elles ne sont pas soigneusement réglementées.Par exemple, le développement de médicaments, de vaccins ou de virus qui représentent une menace et un préjudice pour l'homme.

8. Risque des applications militaires

Selon The Guardian, lors du futur Air Warfare Capability Summit à Londres en mai, le colonel Tucker Simcoe Hamilton, qui est en charge des tests et des opérations de l'IA pour l'US Air Force, a déclaré que l'IA a utilisé des tactiques très inattendues pour atteindre ses objectifs dans les simulations.Dans un test virtuel effectué par l'armée américaine, un drone de l'Air Force contrôlée par l'intelligence artificielle a décidé de "tuer" son opérateur pour l'empêcher d'interférer avec ses efforts pour terminer sa mission.



La feuille de route Python 2023
Le talon d'Achille des startups de l'IA: aucune pénurie d'argent, mais un manque de données de formation
12 meilleurs plugins Chatgpt pour la science des données
Les 27 outils d'IA les plus populaires en 2023
6 termes de données clés que vous devez savoir