إيلون ماسك وكبار المسؤولين التنفيذيين في مجال التكنولوجيا يدعون إلى التوقف مؤقتاً عن تطوير الذكاء الاصطناعي

إيلون ماسك وكبار المسؤولين التنفيذيين في مجال التكنولوجيا يدعون إلى التوقف مؤقتاً عن تطوير الذكاء الاصطناعي https://ift.tt/G2lV9Xp

يقول مؤلفوا العريضة أن الذكاء الاصطناعي المتطور يمكن أن يتسبب بتغييرٍ كبير في تاريخ الحياة على الأرض، بشكل إيجابي أو سلبي.

وقّع أكثر من 2,600 من الرؤساء التنفيذيين والباحثين في مجال التكنولوجيا على عريضة تدعو إلى "التوقف المؤقت" بشكل فوري عن تطوير الذكاء الاصطناعي، خوفاً من "المخاطر الكبيرة التي قد يُشكلها الذكاء الاصطناعي المتطور على المجتمع والإنسانية".

وقد كان إيلون ماسك، الرئيس التنفيذي لشركة تيسلا، والشريك المؤسس لشركة آبل، Steve Wozniak، ومجموعة من الرؤساء التنفيذيين والمدراء التنفيذيين والباحثين المتخصصين في مجال الذكاء الاصطناعي من بين الموقعين على الرسالة التي نشرها مركز الأبحاث الذي يُعرف بإسم معهد مستقبل الحياة (FOLI)، والذي يتخذ من الولايات المتحدة مركزاً له، في 22 مارس.

ودعا المعهد جميع الشركات التي تعمل على تطوير الذكاء الاصطناعي إلى "الإيقاف الفوري" لأنظمة تدريب الذكاء الاصطناعي التي تُعد أقوى من GPT-4 لمدة ستة أشهر على الأقل، وشارك مخاوفه من أن "الذكاء الاصطناعي القادر على التنافس مع الذكاء البشري يمكن أن يشكل مخاطر كبيرة على المجتمع والإنسانية"، من بين أمور أخرى.

وكتب المعهد: "يمكن أن يتسبب الذكاء الاصطناعي المتطور بتغييرٍ عميق في تاريخ الحياة على الأرض، ويجب التخطيط له وإدارته بعناية وباستخدام الموارد المتناسبة. ولسوء الحظ، هذا المستوى من التخطيط والإدارة لا يحدث حالياً"

 تجدر الإشارة إلى أن GPT-4 هو أحدث إصدار لروبوت الدردشة المدعوم بالذكاء الاصطناعي والمُطور من قبل OpenAI، وتم إطلاقه في 14 مارس. وقد تمكن الروبوت المذكور من اجتياز بعضاً من أكثر امتحانات المدارس الثانوية والقانونية الأمريكية صرامة، وحاز على نسبة نجاح قُدرت بـ 90%. ومن المفهوم أن روبوت الدردشة هذا أكثر تقدماً بـ10 مرات من الإصدار الأصلي من ChatGPT.

كما زعم مركز الأبحاث أيضاً أن هناك "سباقاً خارج عن السيطرة" بين شركات الذكاء الاصطناعي التي تسعى لتطوير الذكاء الاصطناعي الأكثر قوة، بينما "لا يمكن لأحد - ولا حتى مطوريه - أن يفهموه أو يتحكمو به بشكل كامل" 

وكان من بين أهم المخاوف التي أشارت إليها العريضة، هي الشكوك التي تدور حول ما إذا كان بإمكان الروبوتات أن تملأ قنوات المعلومات "بالدعاية والمعلومات المضللة"، بالإضافة إلى الخوف من أتمتة جميع فرص العمل.

وقد أخذ معهد FOLI هذه المخاوف إلى مرحلة جديدة، مشيراً إلى أن الجهود التنافسية لهذه الشركات قد تؤدي إلى خلق تهديد وجودي:

"هل يجب علينا أن نطور عقولاً غير بشرية قد تفوقنا عدداً في النهاية، وتتفوق علينا وتحل محلنا؟ هل يجب أن نخاطر بفقدان السيطرة على حضارتنا؟

وأضافت الرسالة: "يجب ألا يتم تفويض مثل هذه القرارات إلى قادة التكنولوجيا غير المنتخبين".

كما أشاد المعهد ببيان صدر مؤخراً عن مؤسس OpenAI، سام ألتمان، ونص على وجوب إجراء مراجعة مستقلة قبل السماح بتدريب أنظمة الذكاء الاصطناعي المستقبلية.

حيث قام ألتمان في 24 فبراير، بتسليط الضوء من خلال مدونته،على الحاجة إلى الاستعداد لتطوير روبوتات الذكاء الاصطناعي العام (AGI) والذكاء الاصطناعي الفائق (ASI).

ومع ذلك، لم يسارع جميع نقاد الذكاء الاصطناعي للتوقيع على العريضة، حيث أوضح Ben Goertzel، الرئيس التنفيذي لشركة SingularityNET، من خلال رده على تغريدة غاري ماركوس، مؤلف كتاب Rebooting.AI، في 29 مارس، أن نماذج تعلم اللغة (LLMs) لن تصبح AGIs، حيث شهدت النماذج حتى الآن، تطورات قليلة فقط.

وبدلاً من ذلك، قال بن أنه يجب إبطاء البحث والتطوير في مجالات الأسلحة البيولوجية والأسلحة النووية:

وبالإضافة إلى روبوتات الدردشة مثل ChatGPT، تم استخدام تكنولوجيا التزييف deep fake المدعومة من قبل الذكاء الاصطناعي لإنشاء صور ومقاطع صوتية ومقاطع فيديو مزيفة تبدو كالحقيقية. كما تم استخدام التكنولوجيا لإنشاء أعمال فنية تم إنشاؤها بواسطة الذكاء الاصطناعي، مما أثار بعض المخاوف حول إذا ما كان هذا يمكن أن ينتهك قوانين حقوق النشر في حالات معينة.

مقالات ذات صلة: ChatGPT can now access the internet with new OpenAI plugins

وكذلك الأمر، أخبر الرئيس التنفيذي لشركة Galaxy Digital، مايك نوفوغراتز، المستثمرين مؤخراً أنه صُدم من مقدار الاهتمام التنظيمي بالعملات المشفرة، في حين تم إعطاء القليل من الانتباه تجاه الذكاء الاصطناعي.

حيث قال في اجتماعه الهاتفي مع المستثمرين في 28 مارس:

"عندما أفكر في الذكاء الاصطناعي، يصدمني أننا نتحدث كثيراً عن تنظيم العملات المشفرة، ولا أحد يذكر شيئاً حول تنظيم الذكاء الاصطناعي. أعتقد حقاً أن الحكومات قلبت الأمر رأساً على عقب".

وعلاوةَ على ذلك، جادل معهد FOLI بأنه إذا لم يتم وقف تطور الذكاء الاصطناعي بسرعة، يجب على الحكومات المشاركة في الضغط على الشركات.

"يجب أن تكون عملية التوقف هذه قضية عامة ويمكن التحقق منها، وأن تشمل جميع الجهات الفاعلة الرئيسية. وإذا لم يكن بالإمكان فرض مثل هذا التوقف بسرعة، يجب على الحكومات التدخل وزيادة الضغط على الشركات".

مجلة:How to prevent AI from ‘annihilating humanity’ using blockchain

إرسال تعليق

تعليقاتكم تشجعنا بالإستمرار شكرا مسبقا.

أحدث أقدم