تكنولوجيا وعلوم

تطوير الذكاء الاصطناعي لا يتوقف والسيطرة البشرية تهدّئ المخاوف الوجودية

كشفت دراسة أجريت أخيرًا في جامعة “باث” Bath، بالاشتراك مع الجامعة التقنية في دارمشتات في ألمانيا، أن النماذج اللغوية الكبيرة مثل “شات جي بي تي” ليست قادرة على التعلّم الذاتي أو تطوير مهارات جديدة بمفردها؛ وبالتالي، فإنها لا تمثل خطرًا وجوديًا على البشر.
وقد نُشرت هذه الدراسة ضمن فعاليات الاجتماع السنوي الـ62 للجمعية الدولية للّغويات الحاسوبية ACL 2024، وهو المؤتمر الدولي الرائد في معالجة اللغات الطبيعية. وتكشف الدراسة عن أن هذه النماذج لديها القدرة على اتّباع التعليمات والتميّز في الكفاءة اللغوية، ولكنها لا تمتلك الإمكانية لإتقان مهارات جديدة من دون تعليمات صريحة، ممّا يعني أنّها تظلّ قابلة للتحكم والتنبؤ والأمان.
وخلص فريق البحث إلى أن النماذج اللغوية الكبيرة، التي يتم تدريبها على مجموعات بيانات أكبر، يمكن أن تستمر في الانتشار من دون مخاوف تتعلق بالسلامة، على الرغم من أن التكنولوجيا لا تزال قابلة لإساءة الاستخدام.
مع النمو، من المُرجّح أن تولّد هذه النماذج لغة أكثر تطورًا، وأن تصبح أفضل في اتباع التعليمات الصريحة والمفصّلة، ولكن من غير المحتمل أن تكتسب مهارات التفكير المُعقّدة.
يقول الدكتور هاريش تايار مادابوشي، عالم الكمبيوتر في جامعة باث، والمؤلف المشارك في الدراسة الجديدة حول “القدرات الناشئة” للنماذج اللغوية الكبيرة: “إن السرد السائد الذي يصور هذا النوع من الذكاء الاصطناعي على أنه تهديد للإنسانية يمنع الاعتماد الواسع لهذه التقنيات وتطويرها، ويحول الانتباه أيضًا عن القضايا الحقيقية التي تتطلب تركيزنا”.
أجرى فريق البحث التعاوني تجارب لاختبار قدرة النماذج اللغوية الكبيرة على إكمال المهام التي لم تواجهها النماذج من قبل كالقدرات الناشئة المسماة.
على سبيل المثال، يمكن للنماذج اللغوية الكبيرة الإجابة عن أسئلة حول المواقف الاجتماعية، من دون أن يكون قد تم تدريبها أو برمجتها على ذلك صراحة. وفي حين أشارت الأبحاث السابقة إلى أن هذا كان نتيجة لـ”معرفة” النماذج بالمواقف الاجتماعية، أظهر الباحثون أنه كان في الواقع نتيجة لاستخدام النماذج لقدرة معروفة لديها على إكمال المهام بناءً على بعض الأمثلة المقدمة لها، والمعروفة باسم “التعلم في السياق” ICL.
من خلال آلاف التجارب، أظهر الفريق أن مزيجًا من قدرة النماذج اللغوية الكبيرة على اتباع التعليمات ICL، والذاكرة، والكفاءة اللغوية، يمكن أن يفسر كل من القدرات والقيود التي تظهرها النماذج اللغوية الكبيرة.
وفي السياق، يلفت المؤلف المشارك في الدراسة إلى أنه “لطالما كان هناك خوف من أنه مع تزايد حجم النماذج ستكون قادرة على حل مشكلات جديدة لا يمكننا التنبؤ بها حاليًا، مما يشكل تهديدًا بأن هذه النماذج الأكبر قد تكتسب قدرات خطرة، تشمل التفكير والتخطيط. وقد أثار هذا الكثير من النقاشات. على سبيل المثال، في قمة الأمان للذكاء الاصطناعي، العام الماضي، في بليتشلي بارك، طُلب منا التعليق، لكن دراستنا تُظهر أن الخوف من أن نموذجًا ما سيذهب ويفعل شيئًا غير متوقع تمامًا ومبتكرًا وربما خطيرًا ليس صحيحًا”.
ويضيف أن القلق بشأن التهديد الوجودي الذي تُشكّله النماذج اللغوية الكبيرة ليس مُقتصرًا على غير الخبراء، بل عبّر عنه بعض كبار الباحثين في مجال الذكاء الاصطناعي في جميع أنحاء العالم. ومع ذلك، يحافظ المؤلف على أن هذا الخوف لا أساس له من الصحة، إذ أظهرت اختبارات الباحثين بوضوح عدم وجود قدرات تفكير معقدة ناشئة في النماذج اللغوية الكبيرة.
ويتابع  قائلاً: “من المهم معالجة الإمكانات الحالية لسوء استخدام الذكاء الاصطناعي، مثل إنشاء الأخبار المزيفة وزيادة خطر الاحتيال، وإن كان من السابق لأوانه سنّ القوانين استنادًا إلى التهديدات الوجودية المتصوّرة” .
 ويؤكّد أن هذا يعني بالنسبة إلى المستخدمين أن الاعتماد على النماذج اللغوية الكبيرة لتفسير وأداء المهام المعقّدة، التي تتطلب تفكيرًا معقدًا، من دون تعليمات صريحة، قد يكون خطأ. بدلاً من ذلك، من المرجح أن يستفيد المستخدمون من تحديد ما يتطلبونه من النماذج بشكل صريح، وتقديم أمثلة حيثما أمكن لجميع المهام باستثناء أبسطها.
ويختم: “لا تعني نتائجنا أن الذكاء الاصطناعي ليس تهديدًا على الإطلاق، بل نُبيّن أن الظهور المزعوم لمهارات التفكير المعقّدة المرتبطة بتهديدات محدّدة لا يدعمه الدليل، وأننا يمكن أن نتحكّم بعملية التعلّم للنماذج اللغوية الكبيرة جيّدًا بعد كلّ شيء. لذلك، يجب أن تركّز الأبحاث المستقبليّة على مخاطر أخرى تشكّلها النماذج، مثل إمكانية استخدامها لإنشاء أخبار مزيفة”.
زر الذهاب إلى الأعلى
Translate »