معلومات

أطلق فريق الذكاء الاصطناعي في Microsoft روبوتًا يمكنه إنشاء تعليقات مزيفة ، ويسأل الإنترنت عن السبب

أطلق فريق الذكاء الاصطناعي في Microsoft روبوتًا يمكنه إنشاء تعليقات مزيفة ، ويسأل الإنترنت عن السبب


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

من الغريب أن فريقًا في Microsoft قد أصدر عملاً على روبوت AI ، يسمى DeepCom ، يمكن استخدامه لإنشاء تعليقات مزيفة حول المقالات الإخبارية.

يقول الفريق إن هذه التعليقات المزيفة يمكن أن تخلق تفاعلًا لمواقع إلكترونية ومنافذ إخبارية جديدة ، مما يشجع بشكل أساسي على استخدام حسابات مزيفة لتوليد تفاعل حقيقي مع مناقشة مزيفة.

ذات صلة: يمكن لأداة جديدة للذكاء الاصطناعي أن تساعدنا في محاربة الأخبار المزيفة المكتوبة بالذكاء الاصطناعي

هل نحتاج هذا؟

الجواب القصير. لا.

يعج الإنترنت بالفعل بالحسابات المزيفة والروبوتات المستخدمة في التصيد وتضليل عامة الناس.

يبدو أن السؤال الذي يطرحه فريق الباحثين ، من Microsoft وجامعة Beihang في الصين ، هو: ما الضرر في استخدام التعليقات المزيفة لتحفيز المناقشة وتشجيعها في قراء الأخبار الحقيقية؟

يجادل الباحثون بأن القراء يستمتعون بنشر التعليقات ضمن المقالات الإخبارية ومشاركة آرائهم. بالنسبة للناشرين ، يؤدي هذا إلى زيادة المشاركة ، فلماذا لا نعطيها كلها دفعة مدعومة بالذكاء الاصطناعي؟

تقول الصحيفة: "يمكن لمثل هذه الأنظمة تمكين خدمة التعليق لموقع إخباري من البداية الباردة ، وتعزيز تجربة القراءة للمقالات الإخبارية الأقل تعليقًا ، وإثراء قوائم المهارات لتطبيقات الذكاء الاصطناعي الأخرى ، مثل روبوتات المحادثة".

تقدم ورقة بحثية أعدها باحثون من بكين تقنية جديدة للتعلم الآلي يبدو أن استخداماتها الرئيسية تتمثل في التصيد والتضليل. تم قبوله للنشر في EMLNP ، أحد أفضل 3 أماكن لأبحاث معالجة اللغة الطبيعية. pic.twitter.com/Y8U5AjENrh: //t.co/ZOcrhjKiEc

- Arvind Narayanan (random_walker) 30 سبتمبر 2019

المهم هو أن الورقة الجديدة ، التي تم إصدارها في arXiv ، لا تتضمن أي ذكر للاستخدامات الضارة المحتملة ، أو المخاطر التي يمكن أن تشكلها التكنولوجيا من خلال المساعدة في نشر الأخبار المزيفة. وقد أعرب العديد من النقاد بالفعل عن مخاوفهم.

الشبكات العصبية لقراءة الأخبار

مثل السجل وفقًا للتقارير ، تستخدم DeepCom في وقت واحد شبكتين عصبيتين: شبكة قراءة وشبكة توليد.

يتم ترميز جميع الكلمات في المقالة الإخبارية كمتجهات لتحليلها الذكاء الاصطناعي. تلتقط شبكة القراءة ما تحسبه من أهم جوانب المقالة (شخص أو حدث أو موضوع) ، قبل أن تنشئ الشبكة المولدة تعليقًا بناءً على ذلك.

قام الباحثون بتدريب DeepCom على مجموعة بيانات صينية تتكون من ملايين التعليقات البشرية المنشورة على المقالات الإخبارية عبر الإنترنت ، بالإضافة إلى مجموعة بيانات باللغة الإنجليزية من مقالات على Yahoo! أخبار.

يوضح المثال أعلاه أجزاء مهمة من ملف ياهو! مقال مظلل باللون الأحمر (شبكة القراءة) ، وما يختار الروبوت للتعليق عليه باللون الأزرق (شبكة التوليد).

بوت آخر مثير للجدل

إنها ليست أول فرشاة مايكروسوفت مع جدل الروبوتات. اشتهر روبوت الذكاء الاصطناعي الخاص بهم "تاي" بأنه كان لا بد من إزالته منذ ثلاث سنوات ، بعد أن سرعان ما تعلم التغريد برسائل عنصرية وكراهية للمثليين ومناهضة للنسوية بعد تدريبه على قاعدة بيانات واسعة من التغريدات.

من المعروف أنه كان لا بد من إزالة تاي بعد 16 ساعة فقط بسبب تدفق تغريداته غير المرغوب فيها على الكراهية. يبدو أن تدريب الذكاء الاصطناعي على المعلقين عبر الإنترنت - الأشخاص الذين غالبًا ما يفقدون كل الموانع بفضل عدم الكشف عن هويتهم - ليس فكرة جيدة بعد كل شيء.

يبدو أن هناك حاجة إلى مزيد من العمل قبل أن تتمكن DeepCom حقًا من التحريض على المشاركة أو إنشاء تعليقات يمكن استخدامها لتعطيل المجتمع على نطاق واسع. في الوقت الحالي ، التعليقات التي تم إنشاؤها بواسطة روبوت الذكاء الاصطناعي قصيرة وبسيطة.

ومع ذلك ، تم قبول البحث في EMNLP-IJCNLP ، وهو مؤتمر دولي لمعالجة اللغة الطبيعية ، والذي سيعقد في هونغ كونغ الشهر المقبل (3-7 نوفمبر).

في غضون ذلك ، قام باحثو معهد ماساتشوستس للتكنولوجيا بإنشاء أداة للذكاء الاصطناعي ، تسمى غرفة اختبار نموذج اللغة العملاقة (GLTR) ، والتي يمكنها اكتشاف النص المكتوب بالذكاء الاصطناعي. قد يحتاجون إلى البدء في رفع مستوى لعبتهم.


شاهد الفيديو: المستقبل للذكاء الاصطناعي. لكن هناك وظائف لن تجدها وأخرى ستحل مكانها مستقبلا. (قد 2022).