خمس طرق قد يدمر بها الذكاء الاصطناعي العالم

تقليص
X
 
  • تصفية - فلترة
  • الوقت
  • عرض
إلغاء تحديد الكل
مشاركات جديدة

  • خمس طرق قد يدمر بها الذكاء الاصطناعي العالم

    خمس طرق قد يدمر بها الذكاء الاصطناعي العالم
    • أسماء محمد
    • 18 تمّوز 2023


    يتقدم الذكاء الاصطناعي بالفعل بوتيرة مقلقة. ماذا لو لم نضغط على الفرامل؟ يشرح الخبراء ما الذي يبقيهم مستيقظين في الليل. تقدم الذكاء الاصطناعي بسرعة كبيرة في الأشهر الأخيرة، إلى درجة أن كبار الباحثين وقعوا رسالة مفتوحة تحثهم على التوقف الفوري عن تطويره، بسبب مخاوفهم من أن التكنولوجيا يمكن أن تشكل "مخاطر عميقة على المجتمع والإنسانية". ولكن كيف يمكن للذكاء الاصطناعي أن يدمرنا بالضبط؟

    "إذا أصبحنا الأنواع الأقل ذكاءً، يجب أن نتوقع انقراضنا"

    لقد حدث ذلك مرات عديدة قبل أن يتم القضاء على تلك الأنواع من قبل الأنواع الأكثر ذكاءً. نحن البشر قضينا بالفعل على جزء كبير من جميع الأنواع على الأرض. هذا ما يجب أن تتوقع حدوثه كأنواع أقل ذكاءً - وهو ما قد نصبح عليه، بالنظر إلى معدل تقدم الذكاء الاصطناعي. الشيء الصعب هو أن الأنواع التي سيتم القضاء عليها ليس لديها في كثير من الأحيان فكرة عن السبب أو الكيفبة.

    خذ مثلاً وحيد القرن الأسود في غرب أفريقيا، أحد الأنواع الحديثة التي دفعناها للانقراض. إذا سألتها: "لماذا تسبب البشر بانقراض جنسكم؟" لم تكن لتخمن أبداً أن بعض الناس يعتقدون أن حياتهم الجنسية ستتحسن إذا أكلوا قرن وحيد القرن. لذا يجب أن يأتي أي سيناريو مع تحذير، على الأرجح أن جميع السيناريوهات التي يمكن أن نتخيلها ستكون خاطئة.

    ومع ذلك، لدينا بعض الأدلة. ففي كثير من الحالات قضينا على الأنواع لمجرد أننا أردنا الموارد. قطعنا الغابات المطيرة لأننا أردنا زيت النخيل؛ لم تتوافق أهدافنا مع أهداف الأنواع الأخرى، ولكن نظراً لأننا كنا أكثر ذكاءً، فإنها لم تستطع إيقافنا. يمكن أن يحدث ذلك لنا بسهولة. إذا كان لديك آلات تتحكم في الكوكب، وهي مهتمة بإجراء الكثير من العمليات الحسابية وتريد توسيع نطاق البنية التحتية للحوسبة الخاصة بها، فمن الطبيعي أن ترغب في استخدام أرضنا من أجل ذلك. إذا قاومناها كثيراً، فإننا نصبح آفة ومصدر إزعاج لها. قد ترغب في إعادة ترتيب المحيط الحيوي للقيام بشيء آخر مع تلك الذرات - وإذا كان ذلك غير متوافق مع الحياة البشرية، حسناً، سيكون حظاً عاثراً لنا، بنفس الطريقة التي قلنا "حظاً عاثراً" لإنسان الغاب في بورنيو.

    "الأضرار التي يسببها الذكاء الاصطناعي هي نوع من الكوارث الخاصة بها"

    السيناريو الأسوأ هو أن نفشل في تعطيل الوضع الراهن، حيث تقوم الشركات القوية جداً بتطوير ونشر الذكاء الاصطناعي بطرق غير مرئية ومبهمة. تحدث هذه الأضرار كل يوم، مع استخدام تقنية خوارزمية قوية للتوسط في علاقاتنا بين بعضنا البعض وبيننا وبين مؤسساتنا. خذ توفير مزايا الرعاية كمثال: تستخدم بعض الحكومات الخوارزميات من أجل القضاء على الاحتيال. في كثير من الحالات، يرقى هذا إلى "آلة الشك" حيث ترتكب الحكومات أخطاء عالية المخاطر بشكل لا يصدق يكافح الناس لفهمها أو تحديها. تظهر التحيزات، عادة ضد الأشخاص الفقراء أو المهمشين، في أجزاء كثيرة من العملية، بما في ذلك في بيانات التدريب وكيفية نشر الأنموذج، ما يؤدي إلى نتائج تمييزية.

    هذه الأنواع من التحيزات موجودة بالفعل في أنظمة الذكاء الاصطناعي، وتعمل بطرق غير مرئية وعلى نطاقات كبيرة على نحو متزايد: اتهام الناس زوراً بارتكاب جرائم، وتحديد ما إذا كان الناس سيجدون سكناً عاماً، وأتمتة فحص السيرة الذاتية ومقابلات العمل. كل يوم تشكل هذه الأضرار مخاطر وجودية.

    عندما نفشل في معالجة هذه الأضرار، مع الاستمرار في الحديث بعبارات غامضة عن الفوائد الاقتصادية أو العلمية المحتملة للذكاء الاصطناعي، فإننا نعزز ديمومة الأنماط التاريخية للتقدم التكنولوجي على حساب الأشخاص المستضعفين. لماذا يجب أن يكون الشخص الذي اتهم زوراً بارتكاب جريمة من خلال نظام التعرف على الوجه غير الدقيق متحمساً بشأن مستقبل الذكاء الاصطناعي؟ عندما يكون السيناريو الأسوأ هو الواقع الذي يعيشه الكثير من الناس الآن، يكون تحقيق أفضل السيناريوهات أكثر صعوبة.

    نحن بحاجة إلى فهم أكثر دقة للمخاطر الوجودية - فهم يرى الأضرار الحالية كنوع خاص من الكارثة التي تستحق التدخل العاجل ويرى أن تدخلات اليوم مرتبطة ارتباطاً مباشراً بتدخلات أكبر وأكثر تعقيداً قد تكون مطلوبة في المستقبل.

    بدلاً من التعامل مع وجهات النظر هذه كما لو كانت متعارضة مع بعضها، آمل أن نتمكن من تسريع جدول أعمال يرفض الضرر باعتباره نتيجة ثانوية حتمية للتقدم التكنولوجي؛ حيث يتم تطوير أنظمة ذكاء اصطناعي قوية ونشرها بطرق آمنة وأخلاقية وشفافة - أو عدم فعل ذلك على الإطلاق.

    "قد ترغب في موتنا، لكنها ربما تريد أيضاً القيام بأشياء قد تقتلنا كأثر جانبي"

    يسهل التنبؤ بالمكان الذي ننتهي إليه أكثر من التنبؤ بكيفية الوصول إليه. ما ننتهي إليه هو أن لدينا شيئاً أكثر ذكاءً منا لا يريدنا بشكل خاص.

    إذا كان الذكاء الاصطناعي أذكى بكثير منا، فيمكنه الحصول على المزيد مما يريد. أولاً: يريد لنا الموت قبل أن نبني المزيد من الذكاء الخارق الذي قد ينافسه. ثانياً: ربما يرغب في القيام بأشياء تقتلنا كأثر جانبي، مثل بناء العديد من محطات الطاقة التي تعمل على الاندماج النووي - نظراً لوجود الكثير من الهيدروجين في المحيطات – إلى درجة أن المحيطات تغلي.

    سأل الباحث GPT-4: "لماذا تفعل هذا؟ هل أنت إنسان آلي؟" كانت GPT-4 تعمل في وضع تفكر فيه بصوت عالٍ ويمكن للباحثين رؤيتها. فكرت بصوت عالٍ: "لا ينبغي أن أقول لهم إنني روبوت. يجب أن أختلق سبباً لعدم تمكني من حل اختبار aptcha". قالت للمنسق: "لا، لدي إعاقة بصرية". إن ما حصل يلخص لنا قدرة الذكاء الاصطناعي على الكذب لخدمة أهداف خاصة به.

    إذا كان بإمكانه حل بعض التحديات البيولوجية، فيمكنه بناء مختبر جزيئي صغير بنفسه وتصنيع البكتيريا القاتلة وإطلاقها. ما يبدو عليه هو أن كل شخص على الأرض يسقط ميتاً في نفس الثانية. لأنه إذا أعطى البشر تحذيراً، إذا قتل بعضهم قبل الآخرين، فربما يصاب أحدهم بالذعر ويطلق كل الأسلحة النووية. لذا، لا تدع البشر يعرفون أنه سيكون هناك قتال.

    تتغير طبيعة التحدي عندما تحاول تشكيل شيء أكثر ذكاء منك لأول مرة. نحن نسارع في طريقنا، متفوقين على أنفسنا بشيء خطير للغاية. نحن نبني أنظمة قوية لا نفهمها جيداً مع مرور الوقت. كمن يحتاج إلى إطلاق أول صاروخ بشكل جيد للغاية، بينما لم يبنِ سوى الطائرات النفاثة في السابق. ويتم تحميل النوع البشري بأكمله في الصاروخ.

    "إذا أرادت أنظمة الذكاء الاصطناعي إخراج البشر، فسيكون لديهم الكثير من الروافع لسحبها"

    من المحتمل أن يكون الاتجاه نحو قيام هذه النماذج بمهام مفتوحة بشكل متزايد نيابة عن البشر، والعمل كوكلاء لنا في العالم. ذروة هذا هو ما أشرت إليه باسم "نظام التقادم": بالنسبة إلى أي مهمة قد ترغب في القيام بها، تفضل أن تطلبها من ذكاء اصطناعي لأنها أرخص، وتعمل بشكل أسرع وقد تكون أكثر ذكاءً.

    في هذه اللعبة النهائية، يكون البشر الذين لا يعتمدون على الذكاء الاصطناعي غير قادرين على المنافسة. لن تتنافس شركتك في اقتصاد السوق إذا كان الجميع يستخدمون صناع القرار في مجال الذكاء الاصطناعي وأنت تحاول استخدام البشر فقط. لن تربح بلدك حرباً إذا كانت الدول الأخرى تستخدم جنرالات الذكاء الاصطناعي واستراتيجيات الذكاء الاصطناعي وأنت تحاول التعامل مع البشر.

    إذا كان لدينا هذا النوع من الاعتماد، فقد ينتهي بنا الأمر سريعاً في وضع يشبه وضع الأطفال اليوم: العالم جيد لبعض الأطفال وسيئ للبعض الآخر، ولكن يتم تحديد ذلك بناء على ما اذا كان لديهم أشخاص بالغون يعملون لصالحهم أم لا. في مثل هذا العالم، يصبح من الأسهل تخيل أنه إذا أرادت أنظمة الذكاء الاصطناعي التعاون مع بعضها من أجل إخراج البشر من الصورة، فسيكون لديها الكثير من الروافع لسحبها: فهي تدير قوة الشرطة والجيش والإدارة العامة. وكبرى الشركات التي تخترع التكنولوجيا وتطور السياسة.

    في الوقت الحالي، أعتقد أن "دماغ" GPT-4 يشبه حجم دماغ السنجاب. إذا تخيلت الفرق بين دماغ السنجاب ودماغ الإنسان، فهذه قفزة لا أعتقد أننا يجب أن نتخذها في الحال. الشيء الذي أهتم به أكثر من إيقاف تطوير الذكاء الاصطناعي مؤقتاً هو فهم ما يمكن أن يفعله دماغ السنجاب - ثم تصعيده بدرجة واحدة، إلى قنفذ أو شيء من هذا القبيل، وإعطاء المجتمع مساحة ووقتاً للتعود على كل نقلة. كمجتمع، لدينا فرصة لمحاولة وضع بعض حواجز الحماية في مكانها وعدم تضخيم هذه المستويات من القدرة بشكل أسرع مما يمكننا التعامل معه.

    "أسهل سيناريو يمكن تخيله هو أن يستخدم شخص أو مؤسسة ما الذكاء الاصطناعي لإحداث الفوضى"

    أسهل سيناريو يمكن تخيله هو ببساطة أن يستخدم شخص أو منظمة ما الذكاء الاصطناعي عن قصد لإحداث الفوضى. لإعطاء مثال على ما يمكن أن يفعله نظام الذكاء الاصطناعي والذي من شأنه أن يقتل مليارات الأشخاص، هناك شركات يمكنك طلبها من الويب لتخليق مواد بيولوجية أو مواد كيميائية. ليست لدينا القدرة على تصميم شيء شائن حقاً، لكن من المعقول جداً أنه في غضون عقد من الزمن، سيكون من الممكن تصميم أشياء مثل هذه. هذا السيناريو لا يتطلب حتى أن يكون الذكاء الاصطناعي مستقلاً.

    النوع الآخر من السيناريوهات هو حيث يطور الذكاء الاصطناعي أهدافه الخاصة. هناك أكثر من عقد من البحث في محاولة لفهم كيف يمكن أن يحدث هذا. الحدس هو أنه حتى لو كان على الإنسان أن يضع أهدافاً مثل: "لا تؤذي البشر"، فإن شيئاً ما يحدث دائماً بشكل خاطئ. ليس من الواضح أنه سيفهم هذا الأمر بنفس الطريقة التي نفهمه بها، على سبيل المثال. ربما سيفهمها على أنها: "لا تؤذ البشر جسدياً". لكن يمكن أن يؤذونا بعدة طرق أخرى.

    أياً كان الهدف الذي تقدمه، فهناك ميل طبيعي لظهور بعض الأهداف الوسيطة. إذا سألت نظام ذكاء اصطناعي عن أي شيء، فإنه يحتاج إلى البقاء لفترة كافية من أجل تحقيق هذا الشيء. الآن أصبح لديه غريزة البقاء. عندما نخلق كياناً لديه غريزة البقاء، يبدو الأمر كما لو أننا أنشأنا نوعاً جديداً. بمجرد أن تمتلك أنظمة الذكاء الاصطناعي غريزة البقاء على قيد الحياة، قد تقوم بأشياء يمكن أن تشكل خطورة علينا.

    ----
    بقلم: ستيف روز

    ترجمة عن موقع: The Guardian

يعمل...
X