على الرغم من أن عام 2023 كان عام تغيير قواعد اللعبة بالنسبة للذكاء الاصطناعي، إلا أنه مجرد بداية، حيث من المقرر أن يبدأ عام 2024 بمجموعة من التطورات المخيفة التي قد تشمل الذكاء العام الاصطناعي وحتى التزييف العميق الأكثر واقعية.
لقد كان الذكاء الاصطناعي (AI) موجودًا منذ عقود، ولكن هذا العام كان بمثابة انطلاقة للتكنولوجيا المخيفة، حيث أنشأ ChatGPT من OpenAI ذكاءً اصطناعيًا عمليًا يسهل الوصول إليه للجماهير. ومع ذلك، فإن الذكاء الاصطناعي له تاريخ متقلب، والتكنولوجيا اليوم سبقها سجل قصير من التجارب الفاشلة.
وفي أغلب الأحيان، يبدو أن الابتكارات في مجال الذكاء الاصطناعي مهيأة لتحسين أشياء مثل التشخيص الطبي والاكتشاف العلمي. حيث يمكن لأحد نماذج الذكاء الاصطناعي، على سبيل المثال، اكتشاف ما إذا كنت معرضًا لخطر كبير للإصابة بسرطان الرئة من خلال تحليل فحص الأشعة السينية.
وخلال فترة كوفيد-19، قام العلماء أيضًا ببناء خوارزمية يمكنها تشخيص الفيروس من خلال الاستماع إلى الاختلافات الدقيقة في صوت سعال الأشخاص.
كما تم استخدام الذكاء الاصطناعي لتصميم تجارب فيزياء الكم بما يتجاوز ما تصوره البشر.
لكن ليست كل الابتكارات حميدة إلى هذا الحد؛ فمن الطائرات بدون طيار القاتلة إلى الذكاء الاصطناعي الذي يهدد مستقبل البشرية، إليك بعض من أكثر اختراقات الذكاء الاصطناعي رعبًا والتي من المحتمل أن تحدث هذا العام 2024. وذلك وفق تقرير جديد نشره موقع «لايف ساينس» العلمي.
لا نعرف بالضبط سبب إقالة سام ألتمان الرئيس التنفيذي لشركة OpenAI، وإعادته إلى منصبه أواخر عام 2023. ولكن وسط الفوضى المؤسسية في OpenAI، انتشرت شائعات حول تقنية متقدمة يمكن أن تهدد مستقبل البشرية.
الذكاء الاصطناعي العام: وذكرت وكالة «رويترز» أن نظام OpenAI هذا، المسمى Q* (يلفظ Q-star)، قد يجسد الإدراك الرائد المحتمل للذكاء العام الاصطناعي (AGI). إذ لا يُعرف سوى القليل عن هذا النظام الغامض، ولكن إذا كانت التقارير صحيحة، فقد يؤدي ذلك إلى رفع قدرات الذكاء الاصطناعي عدة مرات. وهو نقطة تحول افتراضية، تُعرف أيضًا باسم «التفرد»، حيث يصبح الذكاء الاصطناعي أكثر ذكاءً من البشر.
ولا تزال الأجيال الحالية من الذكاء الاصطناعي متخلفة في المجالات التي يتفوق فيها البشر، مثل التفكير القائم على السياق والإبداع الحقيقي. فمعظم المحتوى الذي ينشئه الذكاء الاصطناعي، إن لم يكن كله، لا يؤدي إلا إلى اجترار، بطريقة ما، البيانات المستخدمة لتدريبه. لكن العلماء يقولون إن الذكاء الاصطناعي العام قد يؤدي وظائف معينة بشكل أفضل من معظم الناس. ويمكن أيضًا تسليحها واستخدامها، على سبيل المثال، لإنشاء مسببات الأمراض المحسنة، أو شنّ هجمات إلكترونية ضخمة، أو تنسيق التلاعب الجماعي.
لقد ظلت فكرة الذكاء الاصطناعي العام مقتصرة منذ فترة طويلة على الخيال العلمي، ويعتقد العديد من العلماء أننا لن نصل أبدًا إلى هذه النقطة. إلّا انه من المؤكد أن وصول OpenAI إلى نقطة التحول هذه سيكون بمثابة صدمة، لكن ليس خارج نطاق الاحتمالات.
نحن نعلم، على سبيل المثال، أن سام كان بالفعل يضع الأساس لـ AGI في فبراير (شباط) 2023، موضحًا نهج OpenAI تجاه AGI في منشور بالمدونة. كما نعلم أيضًا أن الخبراء بدأوا يتوقعون حدوث اختراق وشيك، بما في ذلك الرئيس التنفيذي لشركة «نيفيديا» جينسن هيونغ؛ الذي قال في نوفمبر (تشرين الثاني) إن الذكاء الاصطناعي العام (AGI) سيكون في متناول اليد خلال السنوات الخمس المقبلة. فهل يمكن أن يكون عام 2024 عام الاختراق للذكاء الاصطناعي العام؟ فقط الوقت كفيل بإثبات ذلك.
التزييف العميق: إن أحد التهديدات السيبرانية الأكثر إلحاحًا هو تهديد التزييف العميق (الصور أو مقاطع الفيديو الملفقة بالكامل لأشخاص لتجريمهم أو التنمر عليهم).
لم تكن تقنية التزييف العميق للذكاء الاصطناعي جيدة بما يكفي لتشكل تهديدًا كبيرًا، لكن هذا قد يكون على وشك التغيير. حيث يمكن للذكاء الاصطناعي الآن إنشاء صور مزيفة عميقة في الوقت الحقيقي (أي بث فيديو مباشر)؛ وبعبارة أخرى قد أصبح الآن جيدًا جدًا في إنشاء وجوه بشرية لدرجة أن الناس لم يعد بإمكانهم التمييز بين ما هو حقيقي وما هو مزيف.
وكشفت دراسة نشرت بمجلة «العلوم النفسية» في 13 نوفمبر، عن ظاهرة «الواقعية المفرطة»، حيث من المرجح أن يُنظر إلى المحتوى الناتج عن الذكاء الاصطناعي على أنه «حقيقي» أكثر من كونه محتوى حقيقيًا. وهذا من شأنه أن يجعل من المستحيل عمليا على الناس التمييز بين الحقيقة والخيال بالعين المجردة.
وعلى الرغم من أن الأدوات يمكن أن تساعد الأشخاص على اكتشاف التزييف العميق، إلا أنها ليست في الاتجاه السائد بعد؛ على سبيل المثال، قامت شركة «إنتل» ببناء كاشف عميق للتزييف العميق يعمل باستخدام الذكاء الاصطناعي لتحليل تدفق الدم. لكن برنامج FakeCatcher المعروف أدى إلى نتائج مختلطة، وفقا لهيئة الاذاعة البريطانية (بي بي سي).
ومع نضوج الذكاء الاصطناعي، فإن أحد الاحتمالات المخيفة هو أن يتمكن الناس من نشر التزييف العميق لمحاولة التأثير على الانتخابات.
وبينما تستعد الولايات المتحدة لإجراء انتخابات رئاسية في نوفمبر 2024، هناك احتمال أن يؤدي الذكاء الاصطناعي والتزييف العميق إلى تغيير نتيجة هذا التصويت الحاسم؛ على سبيل المثال، تراقب جامعة كاليفورنيا في بيركلي استخدام الذكاء الاصطناعي في الحملات الانتخابية.
وذكرت شبكة «إن بي سي نيوز» أيضًا أن العديد من الولايات تفتقر إلى القوانين أو الأدوات اللازمة للتعامل مع أي زيادة في المعلومات المضللة الناتجة عن الذكاء الاصطناعي.
الروبوتات القاتلة: تعمل الحكومات في جميع أنحاء العالم على دمج الذكاء الاصطناعي بشكل متزايد في أدوات الحرب. فقد أعلنت الحكومة الأميركية في 22 نوفمبر أن 47 ولاية قد أيدت إعلانًا بشأن الاستخدام المسؤول للذكاء الاصطناعي في الجيش، والذي تم إطلاقه لأول مرة في لاهاي بفبراير. وان الاستخدام «غير المسؤول» لهذه التقنيات هو احتمال حقيقي ومرعب. إذ يستطيع الذكاء الاصطناعي التعرف على الأنماط، والتعلم الذاتي، والتنبؤ أو إصدار توصيات في السياقات العسكرية، وقد بدأ بالفعل سباق تسلح للذكاء الاصطناعي. ففي عام 2024، من المحتمل أننا لن نرى استخدام الذكاء الاصطناعي في أنظمة الأسلحة فحسب، بل أيضًا في الأنظمة اللوجستية وأنظمة دعم القرار، فضلاً عن البحث والتطوير. ففي عام 2022، على سبيل المثال، أنتج الذكاء الاصطناعي 40 ألف سلاح كيميائي افتراضي جديد. وطلبت فروع مختلفة من الجيش الأميركي طائرات بدون طيار يمكنها التعرف على الأهداف وتتبع المعارك بشكل أفضل من البشر.
لقد ابتكر العلماء ذكاءً اصطناعيًا يمكنه اكتشاف الحياة الفضائية، لكنهم ليسوا متأكدين تمامًا من كيفية عمله. إلّا ان أحد مجالات التطوير الأكثر إثارة للخوف هو مجال أنظمة الأسلحة الفتاكة المستقلة (LAWS) - أو الروبوتات القاتلة.
وقد حذر العديد من العلماء والتقنيين البارزين من الروبوتات القاتلة، بما في ذلك ستيفن هوكينغ عام 2015 وإيلون ماسك عام 2017، لكن التكنولوجيا لم تتحقق بعد على نطاق واسع. ومع ذلك، تشير بعض التطورات المثيرة للقلق إلى أن هذا العام قد يكون بمثابة انطلاقة للروبوتات القاتلة.
ويعد المبالغ التي تنفقها الدول حول العالم على الذكاء الاصطناعي مؤشرًا أيضًا، حيث رفعت الصين إنفاق الذكاء الاصطناعي من 11.6 مليون دولار في عام 2010 إلى 141 مليون دولار بحلول عام 2019، وفقًا لما ذكرته «رويترز». وأضاف المنشور أن السبب في ذلك هو أن الصين تخوض سباقًا مع الولايات المتحدة لنشر أنظمة الأسلحة الفتاكة ذاتية التشغيل.
وتشير هذه التطورات مجتمعة إلى أننا ندخل فجرًا جديدًا في حرب الذكاء الاصطناعي.