لعدة سنوات حتى الآن، دق خبراء التكنولوجيا أجراس الإنذار حول إمكانية تسبب أنظمة الذكاء الاصطناعي المتقدمة في إحداث أضرار كارثية للجنس البشري.
ولكن في عام 2024، غرقت تلك الدعوات التحذيرية أمام رؤية عملية ومزدهرة للذكاء الاصطناعي التوليدي الذي تروج له صناعة التكنولوجيا ــ وهي الرؤية التي أفادت أيضا محافظهم.
غالبًا ما يُطلق على أولئك الذين يحذرون من مخاطر الذكاء الاصطناعي الكارثية اسم “محكومي الذكاء الاصطناعي”، على الرغم من أنه ليس الاسم الذي يحبونه.
أنظمة الذكاء الاصطناعي
إنهم قلقون من أن أنظمة الذكاء الاصطناعي ستتخذ قرارات لقتل الناس، أو أن يستخدمها الأقوياء لقمع الجماهير، أو تساهم في سقوط المجتمع بطريقة أو بأخرى.
في عام 2023، بدا الأمر وكأننا في بداية عصر النهضة لتنظيم التكنولوجيا. هلاك الذكاء الاصطناعي وسلامة الذكاء الاصطناعي – وهو موضوع أوسع يمكن أن يشمل الهلوسة، وعدم كفاية الإشراف على المحتوى، وطرق أخرى يمكن للذكاء الاصطناعي أن يلحق الضرر بالمجتمع – انتقل من موضوع متخصص تمت مناقشته في مقاهي سان فرانسيسكو إلى محادثة تظهر على MSNBC، وCNN، والصفحات الأولى من نيويورك تايمز.
إيلون ماسك
لتلخيص التحذيرات الصادرة في عام 2023: دعا إيلون ماسك وأكثر من 1000 من التقنيين والعلماء إلى التوقف مؤقتًا عن تطوير الذكاء الاصطناعي، وطالبوا العالم بالاستعداد للمخاطر العميقة التي تنطوي عليها التكنولوجيا. وبعد فترة وجيزة، وقع كبار العلماء في OpenAI وGoogle ومختبرات أخرى على رسالة مفتوحة تقول إن خطر الذكاء الاصطناعي الذي يتسبب في انقراض الإنسان يجب أن يحظى بمزيد من المصداقية.
حماية الأمريكيين من أنظمة الذكاء الاصطناعي
وبعد أشهر، وقع الرئيس بايدن أمرًا تنفيذيًا للذكاء الاصطناعي بهدف عام هو حماية الأمريكيين من أنظمة الذكاء الاصطناعي.
في نوفمبر 2023، قام المجلس غير الربحي وراء مطور الذكاء الاصطناعي الرائد في العالم، OpenAI، بطرد سام ألتمان، مدعيًا أن رئيسها التنفيذي كان معروفًا بالكذب ولا يمكن الوثوق به في تقنية مهمة مثل الذكاء العام الاصطناعي، أو AGI – مرة واحدة.
نقطة النهاية المتخيلة للذكاء الاصطناعي، أي الأنظمة التي تظهر الوعي الذاتي بالفعل. (على الرغم من أن التعريف يتغير الآن لتلبية احتياجات العمل لأولئك الذين يتحدثون عنه.)
للحظة، بدا الأمر كما لو أن أحلام رواد الأعمال في وادي السيليكون ستحتل مرتبة أدنى من الصحة العامة للمجتمع.
لكن بالنسبة لرواد الأعمال هؤلاء، كان السرد حول هلاك الذكاء الاصطناعي أكثر إثارة للقلق من نماذج الذكاء الاصطناعي نفسها.
ردًا على ذلك، نشر مارك أندريسن، أحد مؤسسي a16z، مقالًا بعنوان “لماذا سينقذ الذكاء الاصطناعي العالم” في يونيو 2023، وهو مقال مكون من 7000 كلمة يفكك أجندة منكوبي الذكاء الاصطناعي ويقدم رؤية أكثر تفاؤلاً لكيفية تنفيذ التكنولوجيا.
وقال أندرسن في المقال: “لقد أتى عصر الذكاء الاصطناعي، والناس مذعورون. ولحسن الحظ، أنا هنا لأحمل الأخبار السارة: الذكاء الاصطناعي لن يدمر العالم، بل في الواقع قد ينقذه”.
المخاوف
في خاتمته، قدم أندريسن حلاً مناسبًا لمخاوفنا من الذكاء الاصطناعي: التحرك بسرعة وتحطيم الأشياء – وهي في الأساس نفس الأيديولوجية التي حددت كل تكنولوجيات القرن الحادي والعشرين الأخرى (والمشاكل المصاحبة لها).
وقال إنه ينبغي السماح لشركات التكنولوجيا الكبرى والشركات الناشئة ببناء الذكاء الاصطناعي بأسرع ما يمكن وبقوة، مع وجود القليل من الحواجز التنظيمية أو عدم وجودها على الإطلاق.
وأضاف أن هذا من شأنه أن يضمن عدم وقوع الذكاء الاصطناعي في أيدي عدد قليل من الشركات أو الحكومات القوية، وسيسمح لأمريكا بالتنافس بفعالية مع الصين.
شركات الذكاء الاصطناعي الناشئة
بالطبع، سيسمح هذا أيضًا للعديد من شركات الذكاء الاصطناعي الناشئة التابعة لـ a16z بجني المزيد من المال – وقد وجد البعض أن تفاؤله التكنولوجي غير مقبول في عصر التفاوت الشديد في الدخل، والأوبئة، وأزمات الإسكان.
في حين أن أندريسن لا يتفق دائمًا مع شركات التكنولوجيا الكبرى، فإن كسب المال هو أحد المجالات التي يمكن أن تتفق عليها الصناعة بأكملها. كتب مؤسسو a16z رسالة مع الرئيس التنفيذي لشركة Microsoft ساتيا ناديلا هذا العام، يطلبون فيها من الحكومة عدم تنظيم صناعة الذكاء الاصطناعي على الإطلاق.
وفي الوقت نفسه، على الرغم من التلويح المحموم في عام 2023، لم يتباطأ ماسك وغيره من خبراء التكنولوجيا في التركيز على السلامة في عام 2024 – بل على العكس تمامًا: تجاوز الاستثمار في الذكاء الاصطناعي في عام 2024 أي شيء رأيناه من قبل.
عاد ألتمان سريعًا إلى رئاسة شركة OpenAI، وغادر عدد كبير من الباحثين في مجال السلامة الشركة في عام 2024 بينما كانوا يدقون أجراس الإنذار بشأن ثقافة السلامة المتضائلة.
لقد فقد الأمر التنفيذي للذكاء الاصطناعي الذي يركز على السلامة لبايدن إلى حد كبير هذا العام في واشنطن العاصمة – أعلن الرئيس المنتخب القادم، دونالد ترامب، عن خطط لإلغاء أمر بايدن، بحجة أنه يعيق ابتكار الذكاء الاصطناعي.
يقول أندريسن إنه كان يقدم المشورة لترامب بشأن الذكاء الاصطناعي والتكنولوجيا في الأشهر الأخيرة، وأصبح سريرام كريشنان، صاحب رأس المال المغامر منذ فترة طويلة في شركة a16z، هو الآن كبير مستشاري ترامب الرسمي بشأن الذكاء الاصطناعي.
لدى الجمهوريين في واشنطن العديد من الأولويات المتعلقة بالذكاء الاصطناعي والتي تتفوق على عذاب الذكاء الاصطناعي اليوم، وفقًا لدين بول، وهو زميل أبحاث يركز على الذكاء الاصطناعي في مركز ميركاتوس بجامعة جورج ماسون.
ويشمل ذلك بناء مراكز بيانات لتشغيل الذكاء الاصطناعي، واستخدام الذكاء الاصطناعي في الحكومة والجيش، والتنافس مع الصين، والحد من الإشراف على المحتوى من شركات التكنولوجيا التي تنتمي إلى يسار الوسط، وحماية الأطفال من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي.
منع مخاطر الذكاء الاصطناعي
قال بول في مقابلة مع موقع TechCrunch: “أعتقد أن حركة منع مخاطر الذكاء الاصطناعي الكارثية قد فقدت شعبيتها على المستوى الفيدرالي. وعلى مستوى الولاية والمستوى المحلي، فقد خسروا أيضًا المعركة الكبرى الوحيدة التي خاضوها”. بالطبع، إنه يشير إلى مشروع قانون سلامة الذكاء الاصطناعي المثير للجدل في كاليفورنيا SB 1047.
جزء من السبب وراء تراجع شعبية الذكاء الاصطناعي في عام 2024 هو ببساطة أنه مع تزايد شعبية نماذج الذكاء الاصطناعي، رأينا أيضًا مدى عدم ذكائها. من الصعب أن تتخيل أن Google Gemini يتحول إلى Skynet عندما يطلب منك للتو وضع الغراء على البيتزا الخاصة بك.
ولكن في الوقت نفسه، كان عام 2024 هو العام الذي بدا فيه أن العديد من منتجات الذكاء الاصطناعي تجلب مفاهيم من الخيال العلمي إلى الحياة. لأول مرة هذا العام: أظهر OpenAI كيف يمكننا التحدث مع هواتفنا وليس من خلالها، وكشفت Meta عن نظارات ذكية ذات فهم بصري في الوقت الفعلي.
إن الأفكار الكامنة وراء مخاطر الذكاء الاصطناعي الكارثية تنبع إلى حد كبير من أفلام الخيال العلمي، وعلى الرغم من وجود حد واضح، فإن عصر الذكاء الاصطناعي يثبت أن بعض أفكار الخيال العلمي قد لا تكون خيالية إلى الأبد.
وصلت معركة سلامة الذكاء الاصطناعي لعام 2024 إلى ذروتها مع مشروع قانون SB 1047، وهو مشروع قانون يدعمه اثنان من الباحثين المرموقين في مجال الذكاء الاصطناعي: جيفري هينتون ويوشوا بينجيو.
حاول مشروع القانون منع أنظمة الذكاء الاصطناعي المتقدمة من التسبب في أحداث انقراض جماعي للبشر والهجمات الإلكترونية التي يمكن أن تسبب ضررًا أكبر من انقطاع CrowdStrike في عام 2024.
مر SB 1047 عبر الهيئة التشريعية لولاية كاليفورنيا، ووصل إلى مكتب الحاكم جافين نيوسوم، حيث وصفه بمشروع قانون “ذو تأثير كبير”. حاول مشروع القانون منع الأشياء التي حذر منها ماسك وألتمان والعديد من قادة وادي السيليكون الآخرين في عام 2023 عندما وقعوا على تلك الرسائل المفتوحة حول الذكاء الاصطناعي.
لكن نيوسوم اعترض على قرار SB 1047. في الأيام التي سبقت قراره، تحدث عن تنظيم الذكاء الاصطناعي على خشبة المسرح في وسط مدينة سان فرانسيسكو، قائلاً: “لا أستطيع حل كل شيء. ما الذي يمكننا حله؟”
صناع السياسات
وهذا يلخص بوضوح عدد صناع السياسات الذين يفكرون في مخاطر الذكاء الاصطناعي الكارثية اليوم. إنها ليست مشكلة مع حل عملي.
ومع ذلك، كان SB 1047 معيبًا بما يتجاوز تركيزه على مخاطر الذكاء الاصطناعي الكارثية. وينظم مشروع القانون نماذج الذكاء الاصطناعي على أساس الحجم، في محاولة لتنظيم أكبر اللاعبين فقط.
ومع ذلك، فإن هذا لم يأخذ في الاعتبار التقنيات الجديدة مثل حساب وقت الاختبار أو ظهور نماذج الذكاء الاصطناعي الصغيرة، والتي بدأت مختبرات الذكاء الاصطناعي الرائدة في التركيز عليها بالفعل.
علاوة على ذلك، اعتُبر مشروع القانون على نطاق واسع اعتداءً على الذكاء الاصطناعي مفتوح المصدر ــ وبالوكالة، عالم الأبحاث ــ لأنه كان سيحد من قدرة شركات مثل ميتا وميسترال على إطلاق نماذج ذكاء اصطناعي حدودية قابلة للتخصيص بدرجة عالية.
لكن وفقًا لمؤلف مشروع القانون، عضو مجلس الشيوخ عن الولاية سكوت وينر، فإن وادي السيليكون لعب دورًا قذرًا للتأثير على الرأي العام حول SB 1047. وقد أخبر TechCrunch سابقًا أن أصحاب رأس المال الاستثماري من Y Combinator وA16Z شاركوا في حملة دعائية ضد مشروع القانون.
على وجه التحديد، نشرت هذه المجموعات ادعاءً بأن قانون SB 1047 من شأنه أن يرسل مطوري البرامج إلى السجن بتهمة الحنث باليمين. طلبت Y Combinator من المؤسسين الشباب التوقيع على خطاب يقول ذلك في يونيو 2024. وفي نفس الوقت تقريبًا، قدم الشريك العام لشركة Andreessen Horowitz، Anjney Midha، ادعاء مماثل في أحد البرامج الصوتية.
وصف معهد بروكينغز هذا بأنه أحد التحريفات العديدة لمشروع القانون. لقد ذكر SB 1047 كيف سيحتاج المديرون التنفيذيون في مجال التكنولوجيا إلى تقديم تقارير تحدد أوجه القصور في نماذج الذكاء الاصطناعي الخاصة بهم، وأشار مشروع القانون إلى أن الكذب على وثيقة حكومية يعد شهادة زور.
ومع ذلك، فإن أصحاب رأس المال المغامر الذين نشروا هذه المخاوف فشلوا في الإشارة إلى أنه نادرًا ما يتم اتهام الأشخاص بتهمة الحنث باليمين، ونادرًا ما تتم إدانتهم.
رفضت YC فكرة نشر معلومات مضللة، وأخبرت موقع TechCrunch سابقًا أن SB 1047 كان غامضًا وليس ملموسًا كما صوره السيناتور وينر.
بشكل عام، كان هناك شعور متزايد خلال معركة SB 1047 بأن محكومي الذكاء الاصطناعي لم يكونوا مناهضين للتكنولوجيا فحسب، بل كانوا متوهمين أيضًا. وصف المستثمر الشهير فينود خوسلا وينر بأنه جاهل بالمخاطر الحقيقية للذكاء الاصطناعي في حدث TechCrunch’s 2024 Disrupt.
لقد عارض كبير علماء الذكاء الاصطناعي في ميتا، يان ليكون، منذ فترة طويلة الأفكار الكامنة وراء هلاك الذكاء الاصطناعي، لكنه أصبح أكثر صراحة هذا العام.
قال LeCun في دافوس عام 2024: “إن فكرة أن الأنظمة [الذكية] ستتوصل بطريقة ما إلى أهدافها الخاصة وتسيطر على البشرية هي فكرة غير معقولة، إنها سخيفة”، مشيرًا إلى أننا بعيدون جدًا عن تطوير أنظمة الذكاء الاصطناعي فائقة الذكاء. “هناك الكثير والكثير من الطرق لبناء [أي تقنية] بطرق قد تكون خطيرة، أو خاطئة، أو تقتل الناس، وما إلى ذلك… ولكن طالما أن هناك طريقة واحدة للقيام بذلك بشكل صحيح، فهذا كل ما نحتاجه.”
المعركة المقبلة في عام 2025
وقد ألمح صناع السياسات الذين يقفون وراء SB 1047 إلى أنهم قد يعودون في عام 2025 بمشروع قانون معدل لمعالجة مخاطر الذكاء الاصطناعي طويلة المدى. يقول أحد رعاة مشروع القانون، Encode، إن الاهتمام الوطني الذي جذبه SB 1047 كان بمثابة إشارة إيجابية.
قال صني غاندي، نائب رئيس الشؤون السياسية في Encode، في رسالة بالبريد الإلكتروني إلى TechCrunch: “لقد حققت حركة سلامة الذكاء الاصطناعي تقدمًا مشجعًا للغاية في عام 2024، على الرغم من الاعتراض على SB 1047”. “نحن متفائلون بأن وعي الجمهور بمخاطر الذكاء الاصطناعي على المدى الطويل آخذ في التزايد وأن هناك رغبة متزايدة بين صناع السياسات لمعالجة هذه التحديات المعقدة.”
تقول غاندي إن إنكود تتوقع “جهودًا كبيرة” في عام 2025 لتنظيم المخاطر الكارثية المدعومة بالذكاء الاصطناعي، على الرغم من أنها لم تكشف عن أي مخاطر محددة.
على الجانب الآخر، يعد مارتن كاسادو، الشريك العام لشركة a16z، أحد الأشخاص الذين يقودون المعركة ضد تنظيم مخاطر الذكاء الاصطناعي الكارثية. في مقال رأي نُشر في ديسمبر حول سياسة الذكاء الاصطناعي، جادل كاسادو بأننا بحاجة إلى سياسة أكثر عقلانية للمضي قدمًا، معلنًا أن “الذكاء الاصطناعي يبدو آمنًا للغاية”.
وقال كاسادو في تغريدة في ديسمبر: “لقد تجاوزنا الموجة الأولى من الجهود الغبية في مجال سياسة الذكاء الاصطناعي إلى حد كبير”. “نأمل أن نكون أكثر ذكاءً للمضي قدمًا.”
إن وصف الذكاء الاصطناعي بأنه “آمن للغاية” ومحاولات تنظيمه بأنه “غبي” هو نوع من المبالغة في التبسيط. على سبيل المثال، تتم حاليًا مقاضاة شركة Character.AI – وهي شركة ناشئة استثمرت فيها a16z – والتحقيق فيها بشأن مخاوف تتعلق بسلامة الأطفال.
في إحدى الدعاوى القضائية الجارية، قتل صبي من فلوريدا يبلغ من العمر 14 عامًا نفسه بعد أن زعم أنه أفصح عن أفكاره الانتحارية إلى برنامج Chatbot الخاص بـ Character.AI والذي أجرى معه محادثات رومانسية وجنسية. توضح هذه الحالة كيف يتعين على مجتمعنا الاستعداد لأنواع جديدة من المخاطر المتعلقة بالذكاء الاصطناعي والتي ربما كانت تبدو سخيفة قبل بضع سنوات فقط.
هناك المزيد من مشاريع القوانين التي تعالج مخاطر الذكاء الاصطناعي على المدى الطويل ــ بما في ذلك مشروع قانون قدمه للتو السيناتور مِت رومني على المستوى الفيدرالي. ولكن الآن، يبدو أن منتقدي الذكاء الاصطناعي سيخوضون معركة شاقة في عام 2025.