صورة تعبر عن تسمم يضرب نموذج الذكاء الاصطناعي
تشوه وتسمم ذاتي.. دراسة تكشف خلل مميت في برامج الذكاء الاصطناعي
- دراسة: أنظمة ذكاء اصطناعي قد تنهار وتنتج معلومات مشوهة عندما تُدرب على محتوى غير بشري
أحدثت دراسة جديدة ضجة في مجال الذكاء الاصطناعي التوليدي، بعد أن كشفت عن وجود خلل خطير في نماذج اللغة الكبيرة وتوليد المحتوى وبرامج الدردشة، والتي تعتمد على البيانات لتدريبها، قد تعاني من مشكلة "التسمم الذاتي"، حيث يمكن أن يؤدي استخدام بيانات مصطنعة إلى تدهور أدائها بشكل كبير.
وفي الوقت الذي يتوقع فيه معظم الخبراء أن يؤدي تدريب الذكاء الاصطناعي على كميات ضخمة من البيانات إلى تحسين قدراته وتفوقه على البشر مستقبلاً، حذر علماء من جامعة أكسفورد وجامعات أخرى في دراسة نشرت في مجلة "Nature"، من أن البيانات التي تُنتَج بواسطة الذكاء الاصطناعي نفسه قد تجعل هذه الأنظمة غير فعالة.
التسمم الذاتي
وأوضح التقرير الصادر عن "بلومبرغ" واطلعت أن استخدام بيانات تولدها الأنظمة ذاتها يتسبب في تدهور كبير في أداء هذه الأنظمة، في ظاهرة تعرف باسم "انهيار النموذج".
وبفضل الكميات الكبيرة من البيانات التي تعتمد عليها برامج الذكاء الاصطناعي، تمكنت شركات من تطوير برامج قادرة على تقديم إجابات دقيقة لاستفسارات المستخدمين.
لكن في محاولة لإشباع حاجة هذه الأنظمة للبيانات، قام الباحثون مؤخراً بتزويدها ببيانات "مصطنعة" أنشأها الذكاء الاصطناعي نفسه. وقد أظهرت الدراسات أن هذه الأنظمة قد تنهار وتنتج معلومات مشوهة عندما تُدرب على محتوى غير بشري، بحسب الدراسة.
وقد أشار الباحثون إلى أن هذه المشكلة يمكن تشبيهها بـ"تسميم الذكاء الاصطناعي لنفسه".