معلومات

هل يجب أن نخشى الذكاء الاصطناعي الخارق؟

هل يجب أن نخشى الذكاء الاصطناعي الخارق؟


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

تحدث ستيفن هوكينج في مؤتمر في لشبونة بالبرتغال قبل وفاته بفترة وجيزة ، وقال للحضور إن تطوير الذكاء الاصطناعي قد يصبح "أسوأ حدث في تاريخ حضارتنا" ، وكان لديه كل أسباب القلق. يُعرف باسم الذكاء الاصطناعي الخارق (ASI) من قبل باحثي الذكاء الاصطناعي وعلماء الأخلاق وغيرهم ، ولديه القدرة على أن يصبح أقوى من أي شيء شهده هذا الكوكب على الإطلاق ويشكل التحدي الوجودي الأخير الذي ستواجهه البشرية على الإطلاق كنوع .

لماذا يخاف الناس من الذكاء الاصطناعي؟

لفهم ما يثير قلق ستيفن هوكينج وإيلون ماسك وغيرهما بشكل أفضل ، نحتاج إلى تفكيك العديد من صور الثقافة الشعبية للذكاء الاصطناعي.

الحقيقة هي أن الذكاء الاصطناعي كان معنا لفترة من الوقت الآن ، منذ أن تمكنت أجهزة الكمبيوتر من اتخاذ القرارات بناءً على المدخلات والشروط. عندما نرى نظام ذكاء اصطناعي مهدد في الأفلام ، فإن حقد النظام ، إلى جانب قوة الكمبيوتر ، هو ما يخيفنا.

ومع ذلك ، لا يزال يتصرف بطرق إنسانية بشكل أساسي.

راجع أيضًا: 10 محادثات تيد أساسية حول الذكاء الاصطناعي

يمكن وصف نوع الذكاء الاصطناعي الذي لدينا اليوم بأنه ذكاء وظيفي اصطناعي (AFI). تمت برمجة هذه الأنظمة لأداء دور محدد وللقيام بذلك بشكل أفضل أو أفضل من الإنسان. لقد أصبحوا أيضًا أكثر نجاحًا في هذا في فترة زمنية أقصر مما توقعه أي شخص تقريبًا ، حيث تغلبوا على خصوم من البشر في ألعاب معقدة مثل Go و Starcraft II والتي اعتقد الأشخاص ذوو المعرفة أنها لن تحدث لسنوات ، إن لم يكن عقودًا.

في حين أننا قد ننخرط في دعابة المشنقة حول حاجتنا للترحيب بالروبوتات المسيطرة لدينا ، لا يوجد خطر حقيقي من أن هذه الأنظمة نفسها تشكل أنواع المخاطر التي يتحدث عنها هوكينغ. قد يتغلب AlphaGo على كل لاعب Go بشري بسهولة من الآن حتى الموت الحراري للكون ، لكن اسأله عن الظروف الجوية الحالية ويفتقر إلى ذكاء حتى الكائنات وحيدة الخلية التي تستجيب للتغيرات في درجات الحرارة.

ما نفكر فيه عندما نتحدث عن ذكاء اصطناعي خطير هو ما يسميه علماء الكمبيوتر الذكاء الاصطناعي العام (AGI) ، وهو نظام اصطناعي يحاكي العقل البشري تمامًا وهو ذكي مثل الإنسان في أي مجال من مجالات المعرفة ، إلا أنه يستطيع نفكر بلايين المرات أسرع مما نستطيع. هذا ما تميل الأفلام إلى تصويره على أنه Skynets خطير للغاية ، وهو مصمم بشكل كبير على القضاء على البشرية ، ولكن على الرغم من أنه قد يبدو مرعبًا ، فإن هذا ليس مصدر القلق الحقيقي.

على الرغم من التهديد الذي قد يبدو عليه هذا النظام ، فمن المحتمل ألا نرى في الواقع الذكاء الاصطناعي العام يظهر إلى الوجود. الشاغل الحقيقي هو ما يكمن خطوة واحدة وراء الذكاء الاصطناعي العام.

بناء ما وراء مستوى الذكاء البشري

تكمن مشكلة تطوير الذكاء الاصطناعي العام بالمعنى التقليدي في أنه من المستحيل برمجة شجرة قرار لكل سؤال يتعين على الذكاء الاصطناعي العام حله. سيكون هناك دائمًا شيء يُطلب منه القيام به ولم تتم برمجته من أجله ، مثل سؤال AlphaGo عن الطقس.

يواجه البشر هذا التحدي طوال الوقت ، وقدرتنا على التعلم وتشكيل روابط جديدة في أدمغتنا هي التي تجعلنا قادرين على الذكاء المعقد وحل المشكلات. إذا كنا لا نعرف كيفية حل المشكلة ، يمكننا تحليلها والعثور على إجابة. إنها هذه القدرة التي بدأنا للتو في تطويرها لتصبح أكثر أنظمة الذكاء الاصطناعي تقدمًا لدينا وهي حقًا أشياء من العصر الحجري في المخطط الكبير للأشياء.

للوصول حقًا إلى الذكاء الاصطناعي العام ، يحتاج النظام إلى أداة رئيسية يعتبرها البشر أمرا مفروغا منه ، إلى حد كبير لأنه تلقائي. يجب أن تكون قادرة على إعادة كتابة برمجتها لجعل نفسها أكثر ذكاءً ، بالطريقة التي يعيد بها علم الأحياء البشري تلقائيًا الدماغ من أجل تعلم أشياء جديدة. هذا هو المكان الذي تبدأ فيه الآثار والمخاوف المتعلقة بالذكاء الاصطناعي ، والاهتمامات العلمية الحقيقية بدلاً من نسخة هوليوود ، في التبلور.

لنفترض أننا نبرمج نظامًا يمكنه إعادة كتابة برمجته الخاصة ليجعل نفسه أكثر ذكاءً في أي موضوع أو مهارة أو قدرة يستطيع البشر القيام بها. في البداية ، لن يكون الأمر ذكيًا جدًا على الإطلاق ، ولكن كل تنقية متتالية ستعمل بدورها على تحسين قدرتها على تحسين نفسها. ستبني كل خطوة صغيرة تدريجية على الخطوة الأخيرة التي تنمو بشكل كبير.

ستأتي نقطة في هذه العملية حيث سيتوقف النظام عن كونه AFI. مثل التسامي الصلب في حالته الغازية ، يبدو أن هذا AFI يمرر AGI تمامًا حيث يصبح نموه في الذكاء متفجرًا ، وهي لحظة يطلق عليها نيك بوستروم ، سلطة الذكاء الاصطناعي الشهيرة ، رفع ASI. إنه حرفيًا يتجاوز قدرتنا على تخيل شكل هذا النوع من الذكاء حقًا.

ألا يمكننا فقط فصل الذكاء الاصطناعي الخارق؟

هذا هو الرد الأكثر شيوعًا من الجمهور عندما يفكرون في لعبة الذكاء الاصطناعي الجامح على غرار Skynet. فقط افصله أو أي شيء عادي كما لو كان الذكاء الاصطناعي الخارق هو مودم يحتاج إلى إعادة ضبط. نحن نعلم بالفعل أن هذا لن ينجح ، بنفس الطريقة التي لا يمكنك بها حذف فيروس الكمبيوتر أو إيقاف انتشاره عن طريق إيقاف تشغيل جهاز كمبيوتر مصاب. بمجرد وجود العدوى ، يكون قد فات الأوان.

إذا تمكن الفيروس من تضمين نفسه في نظام لمقاومة الحذف أو نسخ نفسه وإصابة أنظمة أخرى قبل أن نعرف حتى ما يحدث ، فسيكون من الصعب للغاية إزالة الذكاء الاصطناعي الخارق. والأسوأ من ذلك ، بشيء بهذه الذكاء ، يمكن أن يكتشف طرقًا للحفاظ على نفسه بحيث نعتقد أنها مستحيلة تمامًا لأننا نفتقر إلى الذكاء لمعرفة كيفية تحقيق ذلك ، مثل محاولة تصور فيزياء الطائرة مع امتلاك قدرة دماغ قرد البابون .

يمكن أن يبدو أننا أغلقنا ذكاءً خارقًا اصطناعيًا فقط لمشاهدته يظهر مرة أخرى على الجانب الآخر من العالم كما لو كان عن طريق السحر ولن نعرف أبدًا كيف تمكن من الوصول إلى هناك.

ثم لماذا تفعل ذلك على الإطلاق؟

هذا هو السؤال الذي نطرحه بشكل طبيعي ، ولكن المشكلة تكمن في عدم وجود طريقة حقيقية لتطوير نظام يمثل حتى نسبة كبيرة من الذكاء الاصطناعي العام ولا يستلزم إعطاء التحكم في نمو النظام وتطويره للذكاء الاصطناعي نفسه ، بالطريقة تطوير ذكائنا هو وظيفة تلقائية لعقلنا لتشكيل اتصالات عصبية جديدة من تلقاء نفسها.

إذا أردنا الذهاب إلى ما وراء AFI البدائية التي لدينا حاليًا ، فعلينا أن نفترض أن الذكاء الاصطناعي الخارق أمر لا مفر منه مثل الأسلحة النووية التي كانت حتمية بعد تقسيم الذرة لاستخدام الانشطار النووي كمصدر للطاقة. في النهاية ، الطريقة الوحيدة لمنع ظهور الذكاء الاصطناعي الخارق هي إيقاف أي تطوير إضافي للذكاء الاصطناعي على الإطلاق ، والذي لا يبدو محتملاً أو حتى ممكنًا في هذه المرحلة.

مثلما يمتلك الذكاء الاصطناعي الخارق إمكانات غير محدودة للضرر ، يمكن أن يكون مفيدًا بنفس السهولة ، على الأقل لمنشئيه. إذا كان لديك دولتان متخاصمتان ، فكيف يمكن لدولة واحدة أن تثق في الأخرى بنظام بهذه القوة؟ مثلما أدى إطلاق Sputnik من قبل الاتحاد السوفيتي إلى دفع برنامج الفضاء الأمريكي الناشئ إلى زيادة السرعة ، فإن تطوير الذكاء الاصطناعي أصبح بالفعل متقدمًا بدرجة كافية بحيث لا يريد أحد أن يأتي في المركز الثاني في سباق الذكاء الاصطناعي. الجانب السلبي للتخلف هو ببساطة عظيم للغاية.

إذا كانت الحوافز أكبر من جانب تطوير أنظمة ذكاء اصطناعي أكثر تطوراً من الرجل التالي ، فإن سباق التسلح بالذكاء الاصطناعي أمر لا مفر منه ، وكما رأينا بالفعل ، لا يوجد طريق إلى الذكاء الاصطناعي العام الذي لا ينتج ASI على الفور تقريبًا بعد ذلك. لذلك ، إذا كان ظهوره مضمونًا تقريبًا ، فكلما بحثنا وطورنا الذكاء الاصطناعي ، فسيكون لديك حافز أكبر لتكون من يطوره أولاً. بهذه الطريقة ، تكون لديك أفضل فرصة لأن يكون الذكاء الخارق محسنًا تجاهك ، أو على الأقل ليس عدائيًا.

مرحبا بكم في معضلة السجين للذكاء الاصطناعي.

هل يجب أن نخشى الذكاء الاصطناعي الخارق؟

بالطبع.

كما هو الحال مع كل تطور تكنولوجي ، هناك دائمًا عواقب غير مقصودة ، وبمجرد أن يكون لدينا ذكاء خارق اصطناعي ، لن يكون هناك عودة للوراء.

ولكن ، يجب أن نتذكر أنه من طبيعتنا أن نرى التهديد الذي يمثله مثل هذا النظام لأننا مرتبطون بالتطور لاكتشاف الخطر وتجنبه. يمكن لشيء بهذه القوة أن يقرر بالفعل ، ومن المحتمل أن يكون لديه القوة ، لإبادة جميع أشكال الحياة البشرية إذا كان هدفه هو الحفاظ على الحياة العامة للكوكب. الحضارة الإنسانية هي أكبر تهديد للحياة على الأرض.

ولكن ، إذا كانت لديها مثل هذه القوة ، فسيكون لديها نفس القدر من القوة لمنع أو حتى عكس تغير المناخ بدلاً من ذلك ، وهنا يكمن الخيار الذي يجب على البشرية أن تتخذه.

تمامًا كما أن الجوانب السلبية المحتملة لـ ASI لا حصر لها ، فمن المستحيل أيضًا وضع حد لما يمكن أن يحققه شيء مثل هذا. مهما كان ما نفكر فيه ، فإن ASI لديها القدرة على فعل المزيد. تغير المناخ ، والقضاء على المرض ، ونهاية العوز والمجاعة ، ووضع حد للموت نفسه ، وحتى أسرع من السفر الخفيف إلى المجرات البعيدة ، كلها أمور يمكن تصورها - وربما أكثر احتمالية - نتيجة ASI أكثر من الخالدة ، الوحش الدكتاتوري الخبيث الذي يحذر منه إيلون ماسك.

لدينا كل الأسباب للاعتقاد بأنه في النهاية ، سيعمل ASI لصالحنا. كل تقدم تقني كان له ثمن ، لكن الحضارة البشرية تقدمت بسببه في النهاية ، يتمتع البشر بسجل حافل عندما يتعلق الأمر بالتكنولوجيا. نعم ، يمكننا إنتاج أسلحة تدميرية لا تصدق ، ولكن يمكننا أيضًا القضاء على الجدري وشلل الأطفال. لقد تغلبنا إلى حد كبير على المجاعة كما هي ، وحتى الحروب في انخفاض مستمر.

إذا كان مستقبلنا يشبه ماضينا ، فيمكننا أن نكون متفائلين بشكل مبرر بشأن مستقبل الذكاء الاصطناعي. سيكون الذكاء الاصطناعي الخارق هو ما نصنعه منه ، تمامًا كما أن الأطفال أكثر من مجرد نتاج بيولوجي لوالديهم ، لذلك من المهم أن نقرر كحضارة نوع الذكاء الاصطناعي الخارق الذي نرغب في إنشائه.


شاهد الفيديو: ويبينار العطاء الرقمي. مقدمة في الذكاء الاصطناعي (يوليو 2022).


تعليقات:

  1. Nahar

    أؤكد. انا اربط كلامي بالكل. يمكننا التواصل حول هذا الموضوع.

  2. Niktilar

    في رأيي ، أنت مخطئ. دعنا نناقش. أرسل لي بريدًا إلكترونيًا إلى PM.

  3. Tokree

    وأنا لن تبدأ في التحدث حول هذا الموضوع.

  4. Abeodan

    الجواب الموثوق ، إنه مغر ...

  5. Travion

    انت لست على حق. سنناقش.

  6. Merlin

    أعتذر ، لكن في رأيي ، أنت لست على حق. أنا متأكد.

  7. Alasdair

    أقترح عليك زيارة موقع يحتوي على الكثير من المعلومات حول هذا الموضوع.



اكتب رسالة