دقة الذكاء الاصطناعي.. AI Overviews، الأداة الذكية التي أطلقتها غوغل مؤخرًا لتلخيص نتائج البحث اعتمادًا على الذكاء الاصطناعي، ارتكبت خطأً وُصف بـ”الفادح”، بعد تقديمها لمعلومات غير دقيقة حول حادث طائرة الخطوط الهندية الذي وقع مؤخرًا، الأداة، التي يفترض بها تقديم محتوى دقيق وموثوق، نقلت تفاصيل مغلوطة حول عدد الضحايا وأسباب الحادث، ما أثار حالة من الجدل الواسع بين المستخدمين والخبراء، خاصة في ظل تصاعد الحديث عالميًا عن حدود قدرات الذكاء الاصطناعي في التعامل مع الأخبار الحساسة والطارئة.
دقة الذكاء الاصطناعي
في يوم الأربعاء، 11 يونيو 2025، تعرضت طائرة تابعة للخطوط الهندية لحادث أثناء هبوطها اضطراريًا في مطار مدينة كوتشي، جنوبي الهند. ووفقًا للبيانات الرسمية الصادرة عن وزارة الطيران المدني الهندية، فإن الطائرة واجهت مشاكل تقنية في عجلات الهبوط، ما دفع قائد الطائرة إلى تنفيذ هبوط طارئ أدى إلى تحطم جزئي في الجناح الأيسر وإصابة 13 راكبًا. لم تُسجل حالات وفاة، وتم نقل المصابين إلى المستشفيات القريبة، وفتح تحقيق عاجل في الواقعة.
خطأ فادح من أداة AI Overviews
في غضون ساعات قليلة من انتشار الخبر، ظهرت نتائج بحث عبر Google مزودة بتقنية AI Overviews، تعرض ملخصًا خاطئًا عن الحادث، إذ زعمت أن الحادث أدى إلى “وفاة جميع الركاب”، وأن “الطائرة انفجرت أثناء الإقلاع”، وهو ما يتنافى تمامًا مع الحقائق، ورغم أن المعلومة اختفت سريعًا بعد التدقيق، إلا أن لقطات شاشة تم تداولها على نطاق واسع، ما سلط الضوء على خطورة الاعتماد الكلي على أدوات الذكاء الاصطناعي دون رقابة بشرية مباشرة.
بعد تصاعد الجدل على منصات التواصل الاجتماعي ووسائل الإعلام، أصدرت غوغل بيانًا رسميًا أكدت فيه وقوع الخطأ، موضحةً أن AI Overviews تعتمد على خوارزميات تعلم ذاتي، تقوم بتجميع وتحليل المعلومات من مختلف المواقع الإخبارية. وأضافت أن الأداة ما تزال في “مرحلة التجريب العام” وتخضع لمراقبة مستمرة، مؤكدةً أنها تعمل على تحسين معايير الجودة وتصفية المصادر المضللة.
كما يشير خبراء في مجال الذكاء الاصطناعي إلى أن مثل هذه الأخطاء غالبًا ما تنجم عن اعتماد الأداة على مواقع إخبارية غير موثوقة، أو مدونات فردية نقلت الخبر بشكل غير دقيق. وبسبب السرعة الكبيرة في تحليل البيانات، قد تدمج الخوارزمية بين عدة حوادث قديمة وجديدة، ما يؤدي إلى توليد ملخص غير دقيق، ويعد هذا الحادث مثالًا حيًا على ما يسمى بـ”هلوسة الذكاء الاصطناعي”، حيث يخترع النموذج المعتمد على الذكاء الاصطناعي معلومات تبدو منطقية لكنها غير صحيحة.
تداعيات الحادث على الثقة في الذكاء الاصطناعي
فتح هذا الخطأ نقاشًا واسعًا حول مدى موثوقية أدوات الذكاء الاصطناعي في نقل المعلومات، خصوصًا في حالات الطوارئ. إذ عبّر الكثير من المستخدمين عن قلقهم من احتمال نشر أخبار مغلوطة في المستقبل عن حوادث كارثية أو أزمات سياسية قد تؤثر على قرارات الأفراد أو المؤسسات، ودعا عدد من المشرعين في أوروبا والولايات المتحدة إلى وضع ضوابط قانونية صارمة تحكم آلية عمل أدوات مثل AI Overviews لضمان الشفافية والمسؤولية.
ردود الأفعال العالمية
أثارت الواقعة ردود أفعال واسعة بين الصحفيين والتقنيين، حيث علّق أحد كبار محرري صحيفة “تايمز أوف إنديا” بأن ما حدث “خطأ لا يغتفر” قد يؤدي إلى أزمة ثقة في منتجات غوغل المستقبلية، بينما رأى البعض أن الحادث “تنبيه مبكر” بضرورة عدم إلغاء دور الصحفي البشري في التحقق من الأخبار، مهما بلغت تطور أدوات الذكاء الاصطناعي.
اقرأ أيضا: قانون الإيجار القديم يتصدر مناقشات البرلمان هذا الأسبوع
مستقبل AI Overviews تحت المجهر
رغم الخطأ الفادح، لا يزال لدى غوغل خطط كبيرة لتوسيع اعتماد AI Overviews ليشمل مزيدًا من اللغات والمجالات، بما في ذلك التغطيات الرياضية، والمالية، وحتى النصائح الصحية. إلا أن مراقبين يعتقدون أن الحادث الأخير قد يدفع الشركة إلى مراجعة آلية الفلترة والتحقق، وربما إدخال عنصر بشري لمراجعة الأخبار العاجلة قبل عرضها على المستخدمين.
حادثة طائرة الخطوط الهندية لم تسلط الضوء فقط على أوجه القصور في إدارة الطوارئ، بل كشفت أيضًا عن فجوة خطيرة في أدوات الذكاء الاصطناعي المستخدمة في تقديم المعلومات، ومع تزايد الاعتماد على تقنيات مثل AI Overviews، يصبح من الضروري إعادة النظر في معايير الدقة والتحقق، حتى لا تتحول هذه الأدوات من وسائل للمساعدة إلى مصادر خطر معلوماتي في زمن لا يحتمل الخطأ.



