حذر باحثو الذكاء الاصطناعي (AI) من خطورة الذكاء الاصطناعي خارق الذكاء، وأخبروا النواب أنه يجب التعامل معهم بنفس طريقة الأسلحة النووية.
أخبر باحثو جامعة أوكسفورد بيت لجنة العلوم والتكنولوجيا المشتركة أن هذا قد يهدد بانقراض البشر.
طالب الدكتوراه مايكل كوهين قال: مع الذكاء الاصطناعي خارق الذكاء، هناك خطورة بأنه عند مستوى ما، سيصبح قادرًا على… قتل الجميع.”
إذا تخيلت أنك تدرب كلبًا باستخدام المكافآت، فسيتعلم الكلب القيام بالأفعال التي ستؤدي إلى حصوله على المكافآت، ولكن إذا عرف الكلب مكان خزانة المكافآت، فسيمكنه أن يحصل على المكافآت بنفسه دون الحاجة إلى فعل الشيء الذي أردناه أن يقوم به،” أضاف كوهين
اقرأ أيضًا CNET تعلق أداة الذكاء الاصطناعي بعد نشر مجموعة من المقالات السيئة
صحيفة الإندبندنت قالت أن الباحثون حذروا أيضًا من أن مجال الذكاء الاصطناعي قد أصبح بالفعل “سباق تسلح بالمعنى الحرفي” حيث ازدادت المنافسة لإنتاج كلي التطبيقات التجارية والعسكرية عبر التكنولوجيا.
أعتقد أن السيناريو الكئيب واقعي حيث أن الذكاء الاصطناعي يحاول أن يحدد ما يجعل “البشر مميزين، وهذا أدى إلى تغيير البشر لشكل الأرض بشكل كلي”، قال هذا أستاذ جامعة أوكسفورد للتعلم الآلي، مايكل أوزبورن.
“الأنظمة الصناعية يمكنها أن تصبح جيدة في التغلب علينا جيوسياسيًا كما يمكنها فعل ذلك في بيئات اللعبة البسيطة”، أضاف أوزبورن.
إن الذكاء الأصطناعي في نفس خطورة الأسلحة النووية
هذه ليست أول مرة يحذر فيها علماء الذكاء الاصطناعي من خطورة التكنولوجيا. آخر تحذيرات مدوية كانت بتجربة فكرية قدمها الفيلسوف نِك بوسترون منذ حوالي 20 سنة.
فرضيات مشكلة “Paperclip Maximizer” – مكبر مشابك الورق تقول أنه سيكون هناك ذكاء اصطناعي فائق الذكاء سيدمر البشرية في النهاية، حتى وإن كان هدفه الأساسي لإنتاج أكبر كم من مشابك الورق، غير ضار بشكل صريح.
يقول أوزبورن: هناك بعض الأسباب لنأمل في أننا جيدون للغاية في إدارة استخدام الأسلحة النبوية. إن الذكاء الاصطناعي تقريبًا بنفس خطورة الأسلحة النووية
إيلون ماسك نوَّه أيضًا من قبل بضرورة زيادة الرقابة الحكومية قائلًا أن التكنولوجيا لديها القدرة على إسباب ضررًا أكبر بكثير من الأسلحة النووية.
ضرورة ضبط التأليف الذاتي
في يوم الأربعاء، قام عضو الكونجرس، تيد ليو، بتقديم أول وثيقة للتشريعات الاتحادية الاتحادية مكتوبة بواسطة الذكاء الاصطناعي
باستخدام نموذج لغة الذكاء الاصطناعي ChatGPT، قام ليو بتقديم النص التالي: “إنك عضو الكونجرس، تيد ليو. اكتب قرار كونجرس شامل يوضح بشكل عام دعم الكونجرس على التركيز على الذكاء الاصطناعي.”
القرار الناتج كان أول قرار في تاريخ الكونجرس يكتب بواسطة الذكاء الاصطناعي.
في وقت سابق من هذا الأسبوع، كتب ليو مقالة في صحيفة نيو يورك تايمز يدعو الكونجرس لأخذ الاجراءات اللازمة لضبط الذكاء الاصطناعي.
كتب ليو: يمكننا استغلال وتنظيم الذكاء الاصطناعي لإنشاء مجتمع مثالي أو أن نخاطر بجعل الذكاء الاصطناعي الغير منظم مع عدم وجود قيود يدفعنا إلى مستقبل أكثر بئسًا.
معترفًا بالآثار الإيجابية المحتملة للذكاء الاصطناعي، فإن قرار ليو يحدد “مسؤولية الكونجرس في التأكد من أن تطوير ونشر الذكاء الاصطناعي يتم بطريقة آمنة، أخلاقية، وتحترم حقوق وخصوصية كل الأمريكيين.”
ليو، عضو من أعضاء الكونجرس القليلين الذين لديهم خلفية تكنولوجية، قال أيضًا أن بعض المخاطر المرتبطة بالذكاء الاصطناعي قد تكون “مميتة”.
“كوني واحدًا من ثلاثة أعضاء في الكونجرس فقط حاصلين على درجة في علوم التكنولوجيا، فإنني أعشق الذكاء الاصطناعي، ومتشوق بخصوص طرقه الرائعة التي سيتقدم المجتمع عبرها.”
وكتب أيضًا: لكوني عضو في الكونجرس، فإنني مذعورًا من الذكاء الاصطناعي، وبخاصٍة الذكاء الاصطناعي الغير مقيد أو منظم.
صحوة الذكاء الاصطناعي والأدوات مثل ChatGPT أثارت مخاوفًا كثيرة بخصوص الغش في الفصول.
في وقت سابق من هذا الأسبوع، أعلن قسم التعليم بمدينة نيو يورك منع ChatGPT من أجهزة وشبكات مدارسه، خوفًا من أن هذا قد يزيد من غش التلاميذ.
بالرغم من كونه تقنية ليست جديدة كليًا، فإن ChatGPT – أو روبوت الدردشة الذي طورته OpenAI، لقى شهرًة كبيرًة على مواقع التواصل الاجتماعي في آخر السنة الماضية، حيث وصف البعض الروبوت بأنه محرك بحث أفضل من جوجل بسبب طريقة محادثته الطبيعية وردوده المترابطة والمنطقية.