توصلت دراسة حديثة إلى أنّ تطبيقات الذكاء الاصطناعي والنماذج اللغوية المتطورة مثل “شات جي بي تي” ChatGPT ربما لا تشكل ”تهديد وجودي” حقيقي للبشرية، وذلك في محاولة لتحديد الآثار التي يمكن أن تترتب على انتشار هذه النماذج، وعلى عكس ما يخشاه البعض.
وأجرى باحثون من جامعة “باث” البريطانية وجامعة “دارمشتات التقنية” في ألمانيا تجارب لاختبار قدرة الروبوتات على إنجاز مهام لم يسبق أن واجهتها نماذج الذكاء الاصطناعي من قبل بما يسمى بـ”القدرات الناشئة”.
ويشرح الباحثون أنّ هذه الروبوتات تستطيع الإجابة على أسئلة حول المواقف الاجتماعية من دون أن يتم تدريبها أو برمجتها بشكل صريح على القيام بذلك، وذلك نتيجة “التعلم من السياق”.
ويقول الباحث في جامعة باث والمشارك في الدراسة، الدكتور هاريش تايار مادابوشي: “كان الخوف من أنه مع ازدياد حجم النماذج أكثر فأكثر، فإنها ستكون قادرة على حل مشاكل جديدة لا يمكننا التنبؤ بها حالياً، مما يشكل تهديداً بأنّ هذه النماذج الأكبر حجماً قد تكتسب قدرات خطرة بما في ذلك التفكير والتخطيط”.
إلّا أنّ فريق البحث توصل من خلال آلاف التجارب إلى أنّ مزيج من الذاكرة والكفاءة والقدرة على اتباع التعليمات يمكن أن يفسر القدرات والقيود التي تظهرها هذه البرمجيات، وفقاً لموقع جامعة “باث”، حيث أنها تتمتع فقط بـ”قدرة سطحية على اتباع التعليمات والتفوق في إتقان اللغة”.
وخلص فريق البحث إلى أنه “يمكن الاستمرار في استخدام نماذج الذكاء الاصطناعي القابلة للتعلّم، والتي يتم تدريبها على جمع بيانات أكبر من أي وقت مضى، دون مخاوف تتعلق بالسلامة”.
ومن المرجّح أن تولد هذه النماذج لغة أكثر تعقيداً وتصبح أفضل في اتباع التعليمات الواضحة والمفصلة.