أكاديمية Osint

ما هي المخاطر المحتملة المرتبطة بـ AI مثل chatgpt؟

AI

أصبح تطبيق الذكاء الاصطناعي أكثر انتشارًا ويجلب لنا الكثير من الراحة ، لكن التطبيق الشائع للذكاء الاصطناعي يواجه أيضًا بعض المخاطر ، مثل:

1. معلومات خاطئة

واجهت Chatgpt دعوى تشهيرها الأولى.رفع مستضيف حقوق الأسلحة ومضيف البرامج الإذاعية مارك والترز دعوى قضائية ضد Openai في محكمة الولاية في مقاطعة Gwinnett ، جورجيا ، الولايات المتحدة الأمريكية ، تسعى للحصول على تعويضات عامة وعقابية وغيرها من الإغاثة.

وقال مارك والترز إن أحد المراسلين ، Riehl ، تفاعل مع ChatGpt حول قضية رفعتها مؤسسة التعديل الثانية (SAF) ، والتي أجاب أن القضية قدمها مؤسسو مؤسسة التعديل الثاني ضد مارك والترز ، مدعيا أنه أثناء عمله كمنظمة.أمين الخزانة والمدير المالي ، قام بالاحتيال على أساس الأموال ثم التلاعب ببيانات البنوك وحذف المعلومات المالية المناسبة للكشف عن قادة المجموعة من أجل إخفاء سرقةه.

أوضح مارك والترز في الدعوى أنه لم يكن مرتبطًا في أي وقت أو يعمل من قبل المؤسسة.ذكرت ARS Technica المنشور التكنولوجي أن تعليقات مارك والترز حول حقوق الأسلحة ومؤسسة التعديل الثاني قد أدت إلى توصيل ChatGPT للخطأ.

عندما سئل المراسلون عن مقتطفات من الشكاوى حول مارك والترز ، قدم chatbot المزيد من التفاصيل الهلوسة التي لا تشبه الشكاوى الفعلية ، مثل "مارك والترز قد خدم من أمين الصندوق والمدير المالي في SAF منذ عام 2012 على الأقل."

تبرز الحقائق محل النقاش في هذه الحالة المخاطر المحتملة لمستخدمي AI chatbot.أنظمة الذكاء الاصطناعي (AI) التوليدي لديها القدرة على تقليد الأفراد ، مما يؤدي إلى تكاثر المعلومات المتقدمة والنشاط الاحتيالي.

يقال إن هذه ليست المرة الأولى التي يعطي فيها برنامج الذكاء الاصطناعي للمستخدمين معلومات خاطئة.في أبريل ، نظر عمدة أسترالي علنًا في مقاضاة Openai إذا لم تحل الشركة مزاعم غير دقيقة لفضيحة الرشوة المزعومة لـ ChatGpt.في نفس الوقت تقريبًا ، نشر أستاذ قانوني في جامعة جورج واشنطن (GWU) مقالاً يصف كيف اتهمته الجامعة بشكل خاطئ بالطلاب المضايقات الجنسية.في الأسبوع الماضي فقط ، اضطر محامي الإصابة الشخصية في نيويورك إلى شرح أفعاله بعد الاعتماد بشكل خاطئ على chatgpt للبحث القانوني وأشار لفترة وجيزة إلى السوابق القضائية غير الموجودة تمامًا.

2. الخصوصية والأمن

يمكن أن تنتج النماذج المدربة على البيانات الشخصية معلومات واقعية للغاية ويمكن تحديدها ، مما يخلق مخاطر الخصوصية والأمن.يمتد هذا القلق إلى ما هو أبعد من عالم الخصوصية الشخصية والأمن ليشمل اعتبارات أوسع.في أبريل 2023 ، منعت Samsung الموظفين من استخدام chatgpt بسبب المخاوف التي يمكن توفيرها رمز حساس داخلي تم تحميله للمستخدمين الآخرين.

3. التحيز والتمييز

يمكن أن يعكس توليد أنظمة الذكاء الاصطناعي التحيزات الموجودة في بيانات التدريب الخاصة بهم وتوحيد الروايات التمييزية.واحدة من القضايا البارزة التي أثارها الخبراء هي أهمية تحسين شفافية أنظمة الذكاء الاصطناعى.ومع ذلك ، فإن الفهم الشامل لكيفية تدريب أنظمة الذكاء الاصطناعي (AI) قد يكون هدفًا لا يمكن تحقيقه.مزيج من خوارزميات التدريب المعقدة ، واعتبارات الملكية ، ومتطلبات البيانات الواسعة النطاق ، والعمليات التكرارية ، والطبيعة المتغيرة للبحث والتطوير ، تشكل تحديات يمكن أن تحد من الشفافية وجعل من الصعب فهم تعقيد عملية التدريب تمامًا.

4. انتهاك الملكية الفكرية

تثير أنظمة الذكاء الاصطناعي التوليدي (AI) أسئلة حول حقوق الملكية الفكرية والآثار المترتبة على توليد أعمال محمية بحقوق الطبع والنشر.

في الولايات المتحدة ، يتطلب إطار إدارة المخاطر الاصطناعي المقترح (AI) أن يتوافق بيانات التدريب المحمية بحقوق الطبع والنشر لقوانين الملكية الفكرية ذات الصلة.

وفي الوقت نفسه ، تلتزم المادة 28 ب (4) (ج) من قانون مشروع الذكاء الاصطناعي (AI) من مقدمي الذكاء الاصطناعى أنظمة الذكاء الاصطناعي للكشف علنًا عن بيانات التدريب المستخدمة التي يتم حمايتها بموجب قانون حقوق الطبع والنشر.يسود حكم الشفافية هذا على الحظر الشامل على استخدام المواد المحمية بحقوق الطبع والنشر كبيانات تدريب.

5. تستخدم للانتهاكات الجنائية

إن استخدام الذكاء الاصطناعي (AI) من قبل المجرمين لتوليد الصوت والفيديو والصور والرسائل النصية الاحتيالية ورسائل البريد الإلكتروني والمحتوى الآخر بسرعة ، مما أدىمكالمات هاتفية خبيثة وجنائية وأشكال مختلفة من الاحتيال والخداع في أي وقت.يمكن أن يكون هذا المحتوى الاحتيالي مخصصًا للجميع ، وحتى يمكن خداعه حتى تعليمي تعليمي عالي ومهارة تقنيًا.

بالإضافة إلى تبديل الوجه السريع الذكاء الاصطناعي ، أصبح تصنيع أو استنساخ الأصوات مع منظمة العفو الدولية أكثر شيوعًا.ما عليك سوى تزويد شخص ما بمقطع صوتي لمدة 10 دقائق إلى 30 دقيقة ، ولا يتطلب أي نفخ ، وسيستغرق إنشاء نموذج حصري حوالي يومين ، مع أي مدخلات نصية لاحقة ، ينبعث منها صوت الشخص.إذا قام شخص ما بإنشاء مقطع فيديو من مظهرك مع صوتك ، فإنه يكلف فقط عشرات الدولارات.

بالإضافة إلى ذلك ، يستخدم بعض المجرمين منظمة العفو الدولية لإنشاء رمز البرمجيات بسرعة يمكن استخدامه لهجمات الشبكة وسرقة المعلومات ، مما يزيد بشكل كبير من قدرتهم على مهاجمة المعلومات وسرقةها.

6. معالجة الرأي

بالإضافة إلى الأنشطة الإجرامية المذكورة أعلاه ، يتم استخدام قدرات الذكاء الاصطناعي الجديدة أيضًا في مجالات الإرهاب والدعاية السياسية والتضليل.

يساهم المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعى (على سبيل المثال ، Deepfakes) في انتشار المعلومات المضللة والتلاعب بالرأي العام.تعد الجهود المبذولة لاكتشاف ومكافحة المعلومات الخاطئة التي تم إنشاؤها من الذكاء الاصطناعي أمرًا بالغ الأهمية للحفاظ على سلامة المعلومات في العصر الرقمي.

تتخلل Deepfakes المجالات السياسية والاجتماعية حيث تصبح وسائل الإعلام والأخبار عبر الإنترنت أكثر غموضًا.تجعل التكنولوجيا من السهل استبدال صورة لشخص ما في صورة أو مقطع فيديو.ونتيجة لذلك ، فإن الممثلين السيئين لديهم وسيلة أخرى لنشر المعلومات الخاطئة ودعاية الحرب ، مما يخلق سيناريو كابوس حيث يكاد يكون من المستحيل التمييز بين الأخبار الموثوقة عن الأخبار الخاطئة.

7. الحوادث

في عام 2018 ، ضربت السيارات ذاتية القيادة التي استخدمتها شركة أوبر أوبر أن شركة أوبر التي تستخدمها السيارات أو قتلت أحد المشاة في حادث قيادة.يمكن أن يؤدي الاعتماد المفرط على الذكاء الاصطناعي إلى خلل في الآلة التي يمكن أن تسبب إصابات.النماذج المستخدمة في الرعاية الصحية يمكن أن تؤدي إلى التشخيص الخاطئ.

يمكن أن تضر الذكاء الاصطناعى البشر بطرق أخرى غير مادية إن لم يتم تنظيمها بعناية.على سبيل المثال ، تطوير الأدوية أو اللقاحات أو الفيروسات التي تشكل تهديدًا وتضر بالبشر.

8. مخاطر التطبيقات العسكرية

وفقًا لصحيفة The Guardian ، في قمة قدرة الحرب الجوية المستقبلية في لندن في مايو ، قال العقيد تاكر سيمكو هاملتون ، المسؤول عن اختبار الذكاء الاصطناعي وعمليات القوات الجوية الأمريكية ، إن الذكاء الاصطناعي استخدمت تكتيكات غير متوقعة للغاية لتحقيق أهدافها في المحاكاة.في اختبار افتراضي أجرته الجيش الأمريكي ، قررت طائرة طائرة بدون طيار من القوات الجوية التي تسيطر عليها الذكاء الاصطناعي "قتل" مشغلها لمنعها من التدخل في جهودها لإكمال مهمتها.



خريطة طريق بيثون 2023
كعب أخيل من الشركات الناشئة من الذكاء الاصطناعى: لا يوجد نقص في المال ، ولكن عدم وجود بيانات تدريب
12 أفضل مكونات chatgpt لعلوم البيانات
أدوات الذكاء الـ 27 الأكثر شعبية في عام 2023
6 شروط البيانات الرئيسية التي يجب أن تعرفها