الخبراء يجيبون.. كيف تم تغذية الذكاء الاصطناعي بمعلومات مغلوطة عن حرب أكتوبر؟

احتفالًا باليوبيل الذهبي لحرب أكتوبر المجيدة، حاولنا معرفة إجابة الذكاء الاصطناعي عن رأيه في الحرب، وما يعرفه عنها، وكانت إجابته تشير إلى التشكيك في النصر الذي عاصره أجيال لا تزال حية ترزق، تتحدث وتروي ما شاهدته، وأجيال تالية شاهدة على مكاسبه، وتقارير ومصادر عالمية وثقته.

ذلك الخلل أو التحيز في إجابات 3 من أكبر تطبيقات الذكاء الاصطناعي التوليدي الذي ذاع صيته، بعد الإعلان عن "chatgpt"، وقوته التي يعتقد البعض أنها "سحرية"، دفعنا للبحث عن أسبابه، وتحري مصداقيته، والتنقيب عن طريقة عمله وتزويده للسائل بمعلومات، توحي الحملات التسويقية الضخمة له بأنها الأكثر دقة وسرعة من الجهد البشري، للدرجة التي أوصلت البعض للتفكير بأنه قادر على خطف وظائفهم، تحديدًا تلك المعتمدة على التدوين والبحث والتحقق والتأليف.

تواصل "إعلام دوت كوم" مع اثنين من خبراء تكنولوجيا الإعلام والصحافة الرقمية، ممن لديهم خبرة في ذلك المجال، وهما أحمد عصمت، استشاري تكنولوجيا الإعلام والتحول الرقمي، وسلمى الغيطاني، محاضر بقسم الصحافة والإعلام ومساعد تنفيذي لمدير مركز كمال أدهم للصحافة التليفزيونية والرقمية بالجامعة الأمريكية، لمناقشة نتائج الإجابة عن حرب أكتوبر في (chat gpt, bard, bing).

-تحيز أم عنصرية؟

"كيف يعمل الذكاء الاصطناعي؟".. قالت سلمى الغيطاني، إجابة على هذا السؤال، إن أدوات الذكاء الاصطناعي التوليدي تعتمد على قاعدة بيانات "data set" يتم تمرينها عليها، فإذا كانت تلك البيانات تحتوي على معلومات تنفي حدوث عملية "الهولوكوست" الشهيرة على سبيل المثال، ستكون إجابته عنها أنها لم تحدث أو لا يوجد عنها بيانات، أما إذا تم تزويده بمعلومات عنها فسوف يجيب عليها.

أضافت أن الأمر نفسه حدث في مسألة السؤال عن حرب أكتوبر، وأن إجابته هي نتاج لما تم تمرينه عليه، فإذا كانت مدخلاته تروي أن النصر كان حليف العرب، وقتئذ، لكانت إجابته كذلك، وإذ ما كان تم تغذيته بوجهة نظر أخرى، فسوف يعتمد عليها في إجابته.

وعن سبب عدم دقة وصفه للحرب قالت: "لو تم تزويده بمعلومات محملة ببعض العنصرية أو التمييز أو غلطة تاريخية أو أرقام غير صحيحة، سيعتمدها في إجابته، فهو لا يخترع إجابات، هو فقط يبحث فيما زوده به البشر".


وأكد أحمد عصمت، نفس النظرية قائلًأ، إن الذكاء الاصطناعي إجاباته وليدة التدريبات التي تلقاها، فهو يتمرن على عدد من المعطيات، فإذ ما كانت إجابته بها انحيازات، وليكن في حالة بحثه في "ويكيبيديا" الإنجليزية كما ذكر bing في إجابته عن المصادر، ووجد أنها ترجح أن النصر لم يكن حليف الحرب، بناء على أفكار وتوجهات البعض، فسوف ينقلها.

أضاف "عصمت": وهنا حري بنا الإشارة إلى أن الذكاء الاصطناعي يمكن أن يجيب بانحياز وليس بعنصرية أو توجيه لفكر ما، فهو ناقل لما تم تدريبه عليه، خاصة في حالة chatgpt، حتى الإصدار (3.5) لأنه غير متصل بالإنترنت، حيث توقف تحديث بياناته منذ عام 2021، كما هو مدون على الموقع.

وأكد أن chatgpt، أيضًا صرح بمسألة التحيزات بشفافية، والأخطاء أيضًا من خلال موقعه الرسمي، مشيرًا إلى أن الكثير من الخبراء، في مجالي التكنولوجيا والإعلام، يطالبون بإشراك أشخاص ذوي عرقيات وخلفيات مختلفة في عملية تزويد روبوتات الدردشة بالمعلومات، للحصول على نتائج أكثر حيادية، ودقة.


-هل يؤثر تحيز الذكاء الاصطناعي على الهوية؟

وعن رأيها في تأثير المعلومات المتحيزة لوجهة نظر معينة، وتأثيرها على الهوية، خاصة لمن هم ليس لديهم دراية كافية بالخلل المعلوماتي في بعض إجابات الذكاء الاصطناعي، عقبت "الغيطاني" قائلة: "الأجيال الصغيرة إذ لم يكن لديها دراية بالتاريخ، وكذلك عدم معرفة بعيوب وتحديات وحدود الذكاء الاصطناعي التوليدي، ويعتمدون على معلوماته كأنها مُنزلة من غير تدقيق أو بحث عن مصادرها وتقييم صحتها هيلبس في الحيطة".

وعن سبب رأيها السابق قالت لأنه إلى الآن أثبت أنه يعطي معلومات خاطئة خاصة عندما يجد نفسه في مأزق أما السؤال الموجه له، ولا يعلم إجابته، فيخترع إجابات وهمية، وذلك نتيجة أن النموذج المبني عليه، يعتمد على جمع عدة كلمات لتكوين جملة مفيدة، لذلك فإن أي شخص سواء كان سنه كبير أو صغير ليس على دراية بتلك الثغرة سوف يقع فريسة للتضليل.

وشددت المساعد التنفيذي لمدير مركز كمال أدهم للصحافة والإعلام على أنه يجب على مستخدمي التطبيق أن يتمتعوا بالوعي الكافي لعملية التحقق من المعلومات للتأكد من صحتها، خاصة فيما يتعلق بالعلوم والتاريخ وما إلى ذلك عن طريق مصادر موثوق منها.

في سياق متصل، كان لأحمد عصمت نفس وجهة النظر، وشدد على مسألة البحث والتحقق، ولكنه خصص بالذكر الصحفيين والباحثين نظرًا لأن أساس مهنتهم التحقق من المعلومات، لافتًا إلى أن chatgpt وأمثاله سواء الخدمات المجانية أو المدفوعة، كأي خدمة على الإنترنت متاحة للجميع لا يمكن حجب استخدامها عن البعض، ولكن هنا يبرز دور المختصين في التدقيق والبحث عن الحقائق والتأكد من صحة المعلومات، تفاديًا لأي تضليل أو تزوير للمعلومات.

وبالعودة لمسألة حالة "الهلوسة" التي تصيب الذكاء الاصطناعي عند الإجابة على الأسئلة، كشف "عصمت" عن واقعة شهيرة وحقيقية حدثت في الولايات المتحدة الأمريكية، حيث لفق chat gpt تهمة تحرش لأحد المحامين بالاسم، وهي تهمة زور لم تحدث.

وزيادة على كلام "الغيطاني"، في مسألة عدم أخذ المعلومات على أنها مسلمات، أكد هو أيضًا على أنه لا يجب أبدًا الوثوق في أية معلومة على الشبكة العنكبوتية بشكل عام، وليس للمحولات التوليدية المدربة مسبقًا للدردشة فقط، مشددًا: "لازم ندور ونتحقق".

في سياق آخر، تطرقت "الغيطاني" إلى مسألة تصنيع تطبيقات الذكاء الاصطناعي بالخارج في أمريكا والدول الغربية بشكل عام، ما يجعل اللغة الإنجليزية هي السائدة، في عمليات تدريب الآلات والتطبيقات، بينما اللغة العربية لا لأننا لا نصنعها في الوطن العربي، وإذا ما حدث وبدأت الدول العربية بالتصنيع، فسوف نستطيع الحفاظ على هويتنا، بتغذية الذكاء الاصطناعي بتراثنا وتاريخنا وأفكارنا، مما يحافظ عليها.

-الذكاء الاصطناعي في غرف الأخبار

وبما أن التجربة التي خضناها مع الذكاء الاصطناعي من قلب إحدى غرف الأخبار، تطرقنا مع سلمى الغيطاني، عن استخداماته فيها، حيث قالت إنه بات يستخدم كوسيلة للتأكد من صحة المعلومات من قبل المحررين والصحفيين في بعض الأوقات، ولكن مع ذلك نعيد مرة أخرى مسألة التحقق من المعلومات والتأكد من مصادر موثوق منها، خاصة أن الصحفي يجب أن يتميز بالقدرة على التفريق بين المصدر القوي والضعيف الموثوق وغير ذلك.

وأشارت إلى أن فكرة تمرين chat gpt تحديدًا على قواعد بيانات بعينها، يجعل طريقة بحثه تختلف عن جوجل، لأنه لا يبحث في المنشور على الإنترنت، إنما في قاعدة بياناته الخاصة، لافتة إلى أن ما يميز bard، التابع لجوجل أن لديه صلاحية الوصول إلى قاعدة أكبر من البيانات تلك التي توفرها له شركة جوجل العملاقة، صاحبة أكبر محرك بحث في وقتنا الحالي، لذا فهو يبحث في الأخبار والمعلومات المنشورة مسبقًا عليه منذ سنوات، ولكن المشكلة التي تواجهه أيضًا هي أن جوجل مليئ بالأخبار المغلوطة، وهو ما يعيدنا لنفس النقطة "التحقق من المعلومات".