خاص

الذكاء الاصطناعي.. فرصة لتطوير الصحافة أم تهديد لوظائف الصحفيين؟

رباب طلعت

انعقدت أمس 31 مارس، الجلسة الخامسة من الدبلوم المهني المصغر في الصحافة الصحية والطبية تخصص “آليات التحقق من المعلومات” والمقدم من مركز كمال أدهم للصحافة التليفزيونية والرقمية بالجامعة الأمريكية بالقاهرة ومشروع فيسبوك للصحافة، وحملت عنوان “الذكاء الاصطناعي والخلل المعلوماتي العميق”، وقدمها كل من أ.د محمد شومان العميد المؤسس لكلية الاتصال ووسائل الإعلام بالجامعة البريطانية في مصر منذ عام 2014 وحتى الآن، والأستاذ أحمد عصمت باحث في مجال تكنولوجيا الإعلام والتحول الرقمي، والمدير التنفيذي لمنتدى الإسكندرية للإعلام، وأدارها الدكتور أحمد إبراهيم المحاضر بالمعهد العالي للإعلام بالإسكندرية.

تطرقت الجلسة للعديد من القضايا الهامة المتعلقة بمستقبل الصحافة وإعادة هيكلة الوظائف الصحفية في ظل التطور الكبير في استخدام الذكاء الاصطناعي، بالإضافة للتحديات التي تواجه الاستفادة من تطبيقاته في الوطن العربي وفي دول العالم كافة، بالإضافة للنماذج الناجحة في غرف الأخبار الكبيرة لتسخيرها لخدمة العمل الصحفي، وكذلك مخاوف الصحفيين حوله، كما تطرقت الجلسة لمفهوم الخلل المعلوماتي وتحديات الصحافة أمام تطور أدوات الذكاء الاصطناعي في ذلك المجال، وفيما يلي يرصد “إعلام دوت كوم” أبرز تلك النقاط التي طرحها المحاضران الدكتور محمد شومان والأستاذ أحمد عصمت: 

نرشح لك: سبب رفض أستاذ جامعي منحة جوجل بقيمة 60 ألف دولار

الذكاء الاصطناعي عامل مساعد أم بديل للصحفي؟ 

بدأ الدكتور محمد شومان الجلسة بتعريف بسيط لمفهوم الذكاء الاصطناعي من وجهة نظر صحفية، وأكد أنه أصبح من الصعب وضع تعريفًا ثابتًا له، نظرًا لتوسع مجالاته تمامًا كـ”البيانات الضخمة”، حيث إن هناك إشكالية عما يجب أن يفعله (هل هو وسيلة لأداء المهام البشرية من كتابة الأخبار والتحليل والتعرف على الصور والفيديوهات والتحقق من الأخبار؟ أم أنه يختص بالحجب فقط؟ أم فقط يقتصر دوره على إعطاء الخوارزميات الخاصة به بعض التوصيات للصحفيين؟)، ولكن على الرغم من عدم وضع تعريف واضح له إلا أنه يجب الاعتراف بأهميته في عملية تحويل ورقمنة وسائل الإعلام، حيث إن الثورة التكنولوجية المرتبطة بالذكاء الاصطناعي في الوقت الراهن، باتت تنبئ بإعادة هيكلة وتشكيل الصحافة سواء على المدى البعيد أو القريب، للقدرة الهائلة للآلات والخوارزميات على التعامل مع سيل من المعلومات بدقة متناهية. 

أشار المحاضر إلى أن تعريف متقدم للذكاء الاصطناعي من A. Graefe في عام 2016، بأنه عملية استخدام الخوارزميات لإنشاء قصص إخبارية تلقائيًا دون تدخل بشري، حيث إنه بعد إتمام عملية إنشاء الخوارزمية فإنها باتت قادرة على عمل كل خطوات عملية إنتاج الأخبار بشكل مثالي من تجميع بيانات وتحليلها وإخراج النتائج، وفي نبذة تاريخية استعرض شومان تجارب صحفية مميزة لعمليات إنتاج الأخبار بواسطة الذكاء الاصطناعي، حيث كانت بدايتها عام 2010 في صحيفة الجارديان البريطانية، لإنتاج الأخبار عن الإحصائيات الرياضية والرسوم البيانية، وفي 2014 عينت مجلة “لوس أنجلوس تايمز” الصحفي كين شوينك، الذي قام بتطوير خوارزمية لإنتاج الأخبار، وفي 2015 لحقت بهم الصين من خلال إنشاء أداة “dream writer” بواسطة ألعاب الفيديو.

من تطبيقات الذكاء الاصطناعي الهامة أيضًا في الصحافية، ما يحدث في الصين وعدة دول أخرى، من استغلال الخوارزميات لإنتاج مواد إخبارية مجمعة من خلال تجميع بيانات من الأخبار المنشورة سابقًا وإنشاء الرسومات البيانية دون تدخل بشري، وكذلك تنظيم المحتوى الصحفي والبيانات مثلما يفعل برنامج (RADAR) الذي تستخدمه جمعية الصحافة البريطانية، كذلك إنشاء قصص صحفية متخصصة، وتحليل كم هائل من البيانات، ولكن لا بد من مراجعة بشرية، للتأكد مما يجب تمريره وما لا يجب، ويجدر الإشارة هنا أن من انجح الأقسام لاستغلال الذكاء الاصطناعي أقسام الاقتصاد والمالية والانتخاب والرياضة، كذلك فإن بعض المؤسسات استخدمت الروبوتات للتواصل مع المستخدمين وتقديم نشرات الأخبار.

ومن أهم التطبيقات التي يستخدم فيها الذكاء الاصطناعي هو مجال الكشف عن الأخبار الزائفة، حيث تستخدم وكالة الأنباء الفرنسية والألمانية أدوات تقنية مثل (CrowdTngle)، لمساعدة العاملين بها للكشف عن الأخبار المضللة، ووكالة أنباء “أسوشيتدبرس” خصصت قسم للتحقق من المعلومات وتنشر بناء عليه مقالًا أسبوعيًا بعنوان “ليست أخبار حقيقية: نظرة على ما لم يحدث هذا الأسبوع”، وفي مايو 2020، طور معمل (OpenAI) تقنية ذكاء صناعي أسموها (GPT-3) لمكافحة الأخبار الزائفة، كما جمعت شركة (logically) بين العنصر البشري والآلة في تقنيتها لتحليل ومراجعة الأخبار لمعرفة المضلل والزائف منها، وتلك التقنية يتم تقديمها كتطبيقات على الهواتف النقالة وكذلك إضافات على متصفح “كروم”، وذلك التطبيق يتعامل مع أكثر من 160 ألف منصة اجتماعية وموقع إخباري.

وعلى الرغم من تلك التجارب الفعلية والناجحة لتسخير الذكاء الاصطناعي لخدمة الصحافة، إلا أنه حدث انقسامًا في الآراء حوله ففصيل يأخذ الأمر على محمل الجد، والآخر يرى أن الضجة المثارة حوله أكبر من حجمه، فالاتجاه الأول، يرى إنها فرصة هامة لتحرير الصحفيين من قيود العملية التحريرية الروتينية، مما يتيح لهم وقتًا لإنتاج القصص الصحفية والتحليلية الخاصة، بالإضافة إلى أن قدرة الخوارزميات على التعامل مع البيانات تمنح المحررين البيانات بطريقة يسهل عليه قراءتها، وذلك بعدما تقوم بمعالجتها وتفسيرها وتنظيمها، كما إنها فرصة لتخفيف التكاليف للمؤسسات التي تعاني من أعباء مالية كبيرة، إلا أن نفس الفصيل لديه تخوفين أساسيين الأول هو تهديد الذكاء الاصطناعي لوظائف الكثير من الصحفيين، والثاني أنها تهديد لجودة تأليف القصص الخبرية، أما الفصيل الثاني يرى أن الأمر كله لا يجب أن يثير كل تلك المخاوف حوله، حيث إن الصحافة في الأساس مهنة إنسانية، ويتفوق فيها العنصر البشري على الآلة، نظرًا لما تحتاجه من تواصل معقد وتفكير متخصص في حالات مثل: الرد والاستماع والإبلاغ والتفاوض وتقييم الزاوية التي يجب أن تتخذها القصة الصحفية وغيرها بناء على عوامل إنسانية لا تجيدها الآلة، وفي إشكالة تهديد وظائف الصحفيين، يجد أولئك أنه على العكس فإن تطبيق الذكاء الاصطناعي سيخلق فرص عمل أكثر، فما سيحدث هو إعادة تشكيل وهيكلة الوظائف لا خسارتها، ويرى أصحاب ذلك الاتجاه بأن الذكاء الاصطناعي مجرد وسيط يمكن الصحفيين من التعبير عن قيمهم الأخلاقية والمعيارية وممارستها من خلال كود يطبقونه، فالصحافة إنسانية المسعى.

معوقات تطبيق الذكاء الاصطناعي في الصحافة

على الرغم من التطبيقات الفعلية للذكاء الاصطناعي في الصحافة، إلا أنه يوجد العديد من الإشكاليات التي تواجهها، والتي لخصها الدكتور محمد شومان في:  استخدامها في الدعاية والتضليل وذلك من خلال الأخبار الزائفة أو المضللة أو التحليل للبيانات وفقًا لتوجهات معينة لتوجيه الرأي العام، وخسارة الصحفيين لوظائفهم على الرغم من أنها تتيح وظائف أخرى تطلب مهارات أكثر، والوقوع في الأخطاء خاصة مع عدم تدخل العنصر البشري، بالإضافة لإشكالية حقوق الملكية، وأيضًا الفجوة الرقمية حيث إن هناك دول حققت تقدمًا بالغًا في تجميع البيانات عن أخرى، مثل الصين التي تعد رائدة في ذلك المجال، والتحيز في كتابة الخوارزميات، تبعًا لتوجهات مبرمجها، وأخيرا الخصوصية، من أبرز المعوقات أيضًا هي إشكالية تطبيقه في الوطن العربي، نظرًا لمشكلتين أساسيتين، أولها التعريب، وثانيها التمويل، بالإضافة إلى ضعف البنية الأساسية المعلوماتية والأمية.

تحديات الصحافة أمام تطور الخلل المعلوماتي 

في سياق تكميلي لموضوع الجلسة، ناقش الأستاذ أحمد عصمت واحدًا من أهم التحديات أمام الصحافة المعاصرة وهو “الخلل المعلوماتي”، أو بشكل أدق كما وصفه “التزييف العميق باستخدام تقنيات الذكاء الاصطناعي”، مشيرًا إلى أن كلا من الذكاء الاصطناعي والخلل المعلوماتي ليسا وليدا اللحظة، إنماالجديد هو المزج بينهما بالإضافة إلى التطور الهائل في ما يسمى بالـ(big data)، أو البيانات الكبيرة وأدوات تحليلها والقدرة الهائلة للحواسيب والبرمجيات والأدوات المستخدمة في تحليلها وتسخيرها في أشكال مختلفة، لافتًا إلى أن استخدامات الذكاء الاصطناعي ليست سلبية دائمًا كما هو مشاع، فهناك الكثير من التطبيقات الحياتية عامة وفي  الإعلام وصناعة الترفيه خاصة مفيدة وأحدثت طفرة كبيرة في الصناعة، مثل دبلجة الأفلام الأجنبية بدقة عالية، واستنساخ الأصوات وبناء الوجه لمصابي الحروق.

التحدي الأكبر أمام الصحافة كما ذكرنا سابقًا هو “التزييف العميق”، وللتطرق له يجب التعرف على عدة مصطلحات أهمها “التزييف العميق نفسه”، والذي عرفه أحمد عصمت بأنه، أحد أنواع الخلل المعلوماتي فائق الحداثة ويستخدم تقنيات الذكاء الاصطناعي (التعلم العميق ولغة الآلة) المبني على قواعد ضخمة من البيانات لإنتاج محتوى صوتي أو مرئي أو صوتي مرئي يبدو كالحقيقة تمامًا، فيما عرف “الخلل المعلوماتي” بأنه مصطلح شامل لكافة أنواع التضليل والتزييف في المعلومات من أخبار وموضوعات وبيانات وإحصائيات وغيرها، و”التعلم العميق” هو أحد فروع علم “تعلم الآلة” (Machine learning)، والمختص في تطوير الخوارزميات التي تمكن الحاسب الآلي من تعلم المهام الصعبة التي تتطلب فهمًا عميقًا للبيانات وطبيعة عملها كتشخيص الأمراض من خلال الصور، ويتم استخدامه في الحياة العامة تبديل الوجوه، وتخليق صوت أو صور لأشخاص آخرين أو حتى وهميين، أما مصطلح “الخوارزميات” المكرر استخدامه خلال الجلسة، فقد عرفها بأنها ليست لغة برمجة إنما هي طرق التحليل والتفكير المنطقي التي يجب اتباعها لكتابة كود برمجة بشكل صحيح بتتبع مجموعة خطوات محددة ومتسلسلة لحل مشكلة ما، وتهتم بعاملين أساسيين وهما الوقت الذي يستخدمه الحاسب لتنفيذ الخوارزمية، ومساحة الذاكرة المستخدمة للتنفيذ، وهنا يجدر الإشارة إلى أن الذكاء الاصطناعي ليس مجالًا واحدًا، فهو ينقسم إلى عدة مجالات أهمها: (الحوسبة المعرفية، ورؤية الحاسب، تعلم الآلة، الشبكات العصبية، التعلم العميق، معالجة اللغات الطبيعية).

استخدم المحاضر تلك المقدمة للتعريف بحجم توسع الذكاء الاصطناعي، واستخداماته، كتمهيد للمحور الأساسي الذي يناقشه وهو الـ(deepfake)، أو التزييف -الخلل- العميق، والذي أصبح مستخدمًا على نطاق واحد عبر مواقع التواصل الاجتماعي والمواقع وحتى قنوات التلفزيون، والذي يستخدم الذكاء الاصطناعي للتلاعب السمعي والبصري، مما يجعله منافسًا شرسًا لا يستهان به في تحقق الصحفيين من الأخبار والمعلومات، أكثر من (cheapfake) الأقدم منه والذي يستخدم فيه تقنيات أقل كفاءة من الذكاء الاصطناعي ويسهل التعرف عليها مثل برامج “الفوتوشوب” للتعديل على الصور، أو التعديل على الصوت والفيديو، فالخلل الرخيص يحتاج إلى خبرات بسيطة للتعرف عليه ويمكن من خلال برامج وتطبيقات متطورة الوصول لحقيقة التزييف في الصورة أو الفيديو، على عكس محتوى الخلل العميق، لتطور أدوات الذكاء الاصطناعي المستخدمة فيه.

 

من الأمثلة التي طرحها “عصمت” عن استخدام ومخاطر (deepfake) هو الفيديو الشهير لنجم هوليوود توم كروز، المتداول عبر تطبيق “تيك توك”، والذي فشل في التعرف على زيفه أحد أهم التطبيقات المستخدمة في مجال التحقق من الفيديوهات وهو (sensityai)، لشدة تعقيد الخوارزميات المستخدمة في إنتاجه، وقد تمت مشاهدته أكثر من 11 مليون مرة، وقد وقع الكثيرون ضحية له وصدقوا أنه بالفعل توم كروز، ما دفع الأخير لإنشاء حساب موثق على تيك توك، ولم يرفع عليه أي فيديو، فقط أنشأه لتجنب تكرار تزييف فيديو آخر له، وقد نجح الفيديو في خداع كافة التطبيقات المخصصة لكشف الفيديوهات المخادعة، ولم يتمكن من كشفه إلا موقع وحيد هو (deep fake detector)، وقد صنفه الخبير هينري أجدر، من ضمن الفئة الـ5% التي يصعب التمييز بينها وبين الحقيقية، وقد اتضح فيما بعد بأن شركة نرويجية صنعته بهدف التحذير من “الخلل العميق”، وقد استغرقت حوالي شهرين لصناعته باستخدام إحدى تقنيات تعلم الآلة، وتسمى (GAN- generative adversarial network) وذلك لتدريب الآلة من خلال الصور والفيديوهات الخاصة بالممثل، وتقنيات خاصة بالصور لمراجعة المنتج بطريقة (frame by frame) ومن ثم استخدام دوبلير لتصوير المشاهد.

“ايه الحكاية”.. سؤال طرحه المحاضر للبدء في مناقشة الأزمة بصورة أقرب للصحافة من التكنولوجيا، حيث قال إن مصطلح “التزييف العميق” بدأ في الظهور عام 2017، تقريبًا بعد 3 سنوات من اختراع الـGAN، وكانت البداية باستخدام صور المشاهير عن طريق تركيب وجوه على أجسام مختلفة، وأفلام البرونوجرافي، وتم تطويره فيما بعد واستغلاله في الاستهداف السياسي والانتخابات العامة، مما تنبهت له الدول والمؤسسات المختلفة لاستخدامه بشكل أوسع وتحوله لأداة من أدوات الحروب السيبرانية، مثلما حدث مع أوباما وترامب، وقد بدأ الاهتمام بذلك الموضوع بعد استخدامه في صناعة البورن، وفي دراسة لشركة (deep trace) نشرتها بمناسبة يوم المرأة العالمي، أكدت أنه بنسبة 96% يستخدم الخلل العميق صور السيدات والفتيات مما يتسبب لهم في أضرار بالغة ويعرضهم للخطر، ولكن كيف يعمل التزييف العميق؟

يحدث الأمر بالاستناد على “التعلم العميق” حيث يستخدم الأخير عدة خوارزميات للذكاء الاصطناعي وهي (الشبكات العصبية، ورؤية الآلة، والتعرف على الصور) في طريقة مستوحاة من طريقة عمل الدماغ البشرية التي تتكون من عدة خلايا عصبية، فالشبكات العصبية تتكون أيضًا من نفس الخلايا العصبية ولكنها اصطناعية، وكلنا زادت كلما زاد تعقيد الشبكة وزادت قدرتها على التعلم بطريقة أشبه لطريقة تفكير البشر، فالشبكة العصبية عبارة عن مجموعة من الطبقات أو وحدات المعالجة التي تعمل بطريقة تكاملية، كل منها يمرر معلومات للآخر، لتصبح قادرة على معالجة أكبر قدر من البيانات على نحو أكثر تعقيدًا وتفصيلًا، والبيانات هنا من الممكن أن كون صورًا أو معلومات أو أرقام، أي شكل من البيانات أيًا يكن، ولكل طبقة وزن نسبي بناء على المدخلات والمخرجات الخاصة بها.

كيف يصنع التزييف العميق تقنيًا؟ بصورة مبسطة للعملية، فإن ذلك يحدث من خلال استخدام الشبكات العصبية في استخراج ملامح من فيديو المصدر وتشفيرها لعمل قناع من طبقات ثنائية الأبعاد، ومن ثم استخدام شبكات عصبية أخرى لفك ذلك التشفير للحصول على الميزات ورفع مستوى الوجه الذي تم إنشاؤه، وتدويره وتوسيع نطاقه حسب الحاجة، وتطبيقه على وجه آخر، وبالطبع يحتاج ذلك لعدد هائل من التدريب على صور للمصدر بزوايا واتجاهات وإضاءة مختلفة، ومن هنا يتم صناعة التزييف العميق من خلال الفيديوهات والصور.

أين الأزمة؟ تكمن الأزمة الفعلية في تسارع وتيرة تطور تقنيات التزييف العميق، عن التقنيات المستخدمة للكشف عنه، مما يجعل الأمر صعبًا على الصحفيين والمختصين في التحقق من المعلومات والكشف عن الأخبار المزيفة. 

أنت تستخدم إضافة Adblock

برجاء دعمنا عن طريق تعطيل إضافة Adblock