يزعم المسؤولون التنفيذيون في جوجل أن برامج الذكاء الاصطناعي علمت نفسها لغة جديدة لم تُدرَّب على معرفتها.
في مقابلة حديثة لسكوت بيلي الصحفي في CBS، قال جيمس مانييكا، نائب رئيس شركة جوجل الأول للتكنولوجيا والمجتمع، أن برنامج الذكاء الاصطناعي استطاع بطريقة ما أن يتعلم اللغة البنغالية دون تدريب بعد أن طُلِب منه ذلك.
قال مانييكا الذي وُلِد في زمبابوي: “لقد اكتشفنا أنه بعد أوامر قليلة جدًا بالبنغالية، أصبح يستطيع أن يترجم كل اللغة البنغالية،”.
“لذا الآن، فجأًة، لدينا الآن جهد بحثي حيث نحاول أن نصل إلى ألف لغة”.
إن البنغالية هي لغة يتم التحدث بها على نطاق واسع في جنوب شرق آسيا، في بنغلاديش بالتحديد. إن تطبيق الذكاء الاصطناعي المعني قد تم تدريبه على أكثر من 400 لغة – يُقال أنها أكبر تغطية لغوية شوهدت في نموذج الكلام اليوم.
اقرأ أيضًا: أسهم “ألفابت” تنخفض، حيث تخطط سامسونج لتتخلص من جوجل من أجل “بينغ” الذي يعمل بواسطة الذكاء الاصطناعي
صندوق الذكاء الاصطناعي الأسود
سوندار بيتشاي، الرئيس التنفيذي لشركة جوجل، ادعاءات مانييكا، معترفًا بأن شركة التكنولوجيا العملاقة ومقرها كاليفورنيا لم تفهم تمامًا قدرات تقنية الذكاء الاصطناعي الخاصة بها. كان أحد الاهتمامات الرئيسية التي اكتشفها “بارد” من جوجلهو ما أسماه “الخصائص الناشئة”.
يشير بيتشاي إلى أنظمة الذكاء الاصطناعي التي قد تكون الآن قادرة على تعلم الأشياء بنفسها. وفقًا لبحث جوجل، يمكن أن تكتسب النماذج اللغوية مهارات جديدة بشكل مستقل، دون أن تتم برمجتها بشكل صريح.
قال بيتشاي خلال المقابلة نفسها: “هناك جانب من هذا نسميه – نطلق عليه جميعًا في الميدان ‘الصندوق الأسود’، والذي لا تفهمه بشكل كامل، كما تعلم”.
“ولا يمكنك معرفة سبب قوله ذلك، أو سبب الخطأ. لدينا بعض الأفكار وقدرتنا على فهم ذلك تتحسن بمرور الوقت. ولكن هذا أحدث ما توصلت إليه التكنولوجيا “.
أكد الرئيس التنفيذي على أهمية التواضع أثناء تطوير الذكاء الاصطناعي، نظرًا لتطوره المستمر. وقال إن وتيرة تطور الذكاء الاصطناعي كانت تتحرك بشكل أسرع مما تستطيع المؤسسات المجتمعية مواكبة ذلك، مما أثار مخاوف بشأن ما إذا كان المجتمع مستعدًا لما هو قادم.
تعرضت هيمنة جوجل للتحدي عندما كشفت مايكروسوفت النقاب عن محرك بحث بينغ الجديد المدعوم بالذكاء الاصطناعي في فبراير، مما دفع جوجل لإصدار نسختها الخاصة المسمى “بارد”. تم تصميم روبوت الدردشة للمساعدة في تبادل الأفكار وإنشاء محتوى مثل الخطابات ومشاركات المدونات ورسائل البريد الإلكتروني.
يعتمد برنامج “بارد” في الغالب على التعلم الذاتي، وهذا قد يكون مقلًا، ويبدو أنه يمتلك مجموع المعرفة البشرية مع شرائح ميكروية أسرع ب100 ألف مرة من العقل البشري وقفقًا للرؤساء التنفيذيين لجوجل.
الذكاء الاصطناعي لجوجل يطرح أسئلة أخلاقية
أثار إعلان جوجل مخاوف بشأن تطوير الذكاء الاصطناعي للمهارات بشكل مستقل عن نوايا المبرمجين، والتي لطالما كانت موضوع نقاش بين العلماء وعلماء الأخلاق وكتّاب الخيال العلمي.
هناك مخاوف حقيقية بشأن تطوير الذكاء الاصطناعي لمهارات قد تكون ضارة وغير أخلاقية ولا يمكن السيطرة عليها وتشكل تهديدًا للبشرية.
ومع ذلك، أوضح المسؤولون التنفيذيون في جوجل أن قدرة برنامج الذكاء الاصطناعي على تعلم لغة جديدة لم تكن نتيجة لأي عواقب أو أخطاء غير مقصودة في البرمجة. بدلاً من ذلك، كانت سمة مقصودة لتصميم البرنامج.
كان بيتشاي صريحًا بشأن مخاطر التسرع في استخدام التكنولوجيا الجديدة. وقال إن جوجل لديها “حاجة ملحة للعمل ونشره بطريقة مفيدة، ولكن في نفس الوقت يمكن أن تكون ضارة للغاية إذا تم نشره بشكل خاطئ”.
وأضاف: “ليس لدينا جميع الأسئلة بعد، ولكن التكنولوجيا تتحرك بسرعة. لذا هل هذا يبقيني مستيقظًا مساءً؟ بالطبع،”.
ويقول أنه لا يزال بيتشاي متفائلاً بأن المجتمع أصبح أكثر وعياً بآثار الذكاء الاصطناعي وأن المحادثات حول التكنولوجيا بدأت بطريقة جادة. كما هو الحال مع أي تقنية، سيكون الذكاء الاصطناعي جيدًا أو شريرًا بالقدر الذي تسمح به الطبيعة البشرية.
غير واعٍ
قال جيمس مانيكا، نائب الرئيس الأول لشركة جوجل، إن حقيقة أن الذكاء الاصطناعي يمكن أن يتعلم مهارة جديدة دون تدريب لا يعني أن البرنامج حساس – بمعنى أن يكون لديك مشاعر، وعواطف، وأفكار، ومعتقدات، ووجهات نظر، إلخ، تمامًا مثل البشر.
وصرَّح “إنهم ليسوا واعين. إنهم ليسوا على علم بأنفسهم. يمكنهم عرض سلوكيات تبدو هكذا. لأن ضع في اعتبارك، لقد تعلموا منا. نحن كائنات واعية”.
لا تزال قضايا الذكاء الاصطناعي موضوع نقاش ساخن. زعم مهندس سابق في جوجل ذات مرة أن نماذج الذكاء الاصطناعي الخاصة بالشركة أصبحت واعية، وهو ادعاء نفته الشركة. في الآونة الأخيرة، ادعت مايكروسوفت أن GPT-4 الخاص بـ OpenAI قد يكون بالفعل ذكيًا مثل البشر في مجموعة متنوعة من المجالات.
ادعت الشركة أن نموذج اللغة، الذي تم دمجه في محرك بحث بينغ الذي يعمل بالذكاء الاصطناعي، هو شكل مبكر من الذكاء الاصطناعي العام (AGI) – مما يعني أنه اكتسب القدرة على أداء أي مهمة فكرية يمكن للإنسان القيام بها، وربما أفضل منه.