حذفت 1.5 مليون فيديو لمذبحة المسجدين.. كيف واجهت "فيسبوك" أزمة القتل على الهواء مباشرة؟
- الجزيرة نت الأحد, 17 مارس, 2019 - 04:24 مساءً
حذفت 1.5 مليون فيديو لمذبحة المسجدين.. كيف واجهت

[ حذفت 1.5 مليون فيديو لمذبحة المسجدين.. كيف واجهت "فيسبوك" أزمة القتل على الهواء مباشرة؟ ]

لم تكن مذبحة المسجدين بنيوزيلندا، على شناعتها، سوى حدث آخر يذكرنا بما أتاحته التقنية من مساحة يمكن عبرها بث أي شيء، أي شيء بما فيه القتل، وارتكاب المجازر كما شاهدنا في مقطع البث المباشر للإرهابي تارانت، والذي بدا عبر مقطعه وهو يطلق الرصاص، أشبه بمن يتسلّى بلعبة فيديو، وكأن هؤلاء القتلى سيعودون للحياة من جديد، كما في الألعاب، الأمر الذي دفع رئيسة الوزراء النيوزيلاندية جاسيندا أرديرن إنها تريد "مناقشة البث الحي على فيسبوك".

 

حادثةٌ فتحت الباب على مصراعيه حول مسؤولية الشركات والمنصات الرقمية تجاه المحتوى الذي يبث على منصاتها، صحيح أن العالم التقني خيالي وافتراضي، لكن القوانين الطبيعية تحكمه وبقوّة أيضًا لاتصاله المباشر بها. وهذا يعني أن الشركة يمكن أن تنهار لمثل حوادث كتلك، والتي تتيحها منصاتها دون وجود آليات تعمل على كبح هذا السيل غير المنضبط، بدءا من الأخبار الكاذبة التي أشارت تقارير لضلوعها في تزوير الانتخابات الأميركية، ووصولا لحادث القتل الأخير.

 

فيسبوك

ليلة المجزرة، أعلنت فيسبوك عبر بيان لها أنها حذفت ما يقارب من 1.5 مليون فيديو للهجوم في أنحاء العالم، وأنها حجبت بالفعل 1.2 مليون عند تحميلها، وذلك لما وصفته "احتراما للأشخاص الذين تأثروا بالهجوم". إجراء اتخذته الشركة الزرقاء عقب بث المسلح لعمليته عبر "فيسبوك لايف" لمدة قاربت على 17 دقيقة.

 

بالرجوع قليلا للوراء، ففي مؤتمر فيسبوك الأخير الخاص بالمطوّرين، لم يقف حاضريه مُهلّلين طوال الوقت، ولا حتى منُبهرين من الابتكارات التقنية التي قدّمها مارك زوكربيرغ وفريق عمله، فالعتاب كان حاضرًا أيضًا مع مشاعر مُختلطة بين الحزن والغضب في نفس الوقت.

 

فيسبوك هي الكبش الآن، فبعد انتشار الأخبار الكاذبة خلال الربع الأخير من 2016 تزامنًا مع الانتخابات الأمريكية، عصفت حالات الانتحار بمقاطع الفيديو والبث الحي فيها. وهذا بدوره زاد من العِبء على الشبكة وأصبحت تُعامل وكأنها مُحفّزة على الانتحار، لكنها أيضًا لم تقف مكتوفة الأيدي وتسعى للوقوف على قدميها من جديد بعد مُعالجة جميع الأخطاء.

 

تُعتبر الشبكات الاجتماعية بشكل عام، وفيسبوك بشكل خاص، المصدر الإخباري الأول لمجموعة كبيرة من المُستخدمين، أي أن ثُلة كبيرة من المُستخدمين تخلّوا عن تثبيت تطبيقات الوكالات الإخبارية وعن زيارة مواقعها الإلكترونية مُقابل تصفّح فيسبوك والحصول على آخر الأخبار من الأصدقاء أو من اقتراحات الشبكة نفسها [1].

 

هذا الأمر لم يمر مرور الكرام أبدًا، وتمكّنت بعض الجهات -بشكل صامت- من دراسة آلية التحايل على تلك الخوارزميات المسؤولة عن اقتراح الأخبار ليضربوا ضربتهم الكُبرى مع فوضى أخبار الانتخابات الأمريكية، لتقف فيسبوك مكتوفة الأيدي دون حراك؛ فهي وقعت بين حدّين؛ إيقاف خوارزميات اقتراح الأخبار بشكل كامل أو إيقاف الأخبار من الأساس، وهو أمر لم ولن تقوى على القيام به نظرًا لأهمّية هذا الشق في الشبكة.

 

بعد تحليل طويل لأسباب انتشار الأخبار الكاذبة تمكّنت الشبكة من معرفة الأنماط المُستخدمة من قبل المواقع المُزيّفة وطريقة صياغتها للعناوين واختيارها للصور كذلك، لتنشر بعدها دليل آدمي لتفرقة الأخبار الكاذبة ناصحة المُستخدمين بقراءة العنوان، ثم دراسة الصورة، والاطّلاع على الرابط قبل الضغط عليه من أجل قراءة الخبر كاملًا.

 

وتحاول فيسبوك في نفس الوقت تلقيم خوارزميات الذكاء الاصطناعي الخاصّة بها تلك التعليمات بشكل رقمي للحد من انتشار الأخبار الكاذبة، فالخوارزمية تُحاول التأكّد من الرابط ومدى مصداقيّته بعد التعرّف على عدد الأخبار التي قام بنشرها سابقًا، وعلى عدد الأخبار التي تم التبليغ على أنها مُزيّفة.

 

ولأن العائدات من الإعلانات هي المُحرّك الأساسي خلف جهود أصحاب تلك المواقع، قرّرت فيسبوك قطع الإمدادات عنهم وغيّرت قليلًا من آلية عرض الإعلانات في المواقع لترى إلى أي حد سيصمد القائمون على تلك المواقع ذات الأخبار الكاذبة.

 

أخيرًا، قرّرت الشبكة التعاون مع هيئات مُتخصّصة في مجال تقييم الأخبار؛ فعند حصول أي رابط على زيارات ومشاركات عالية جدًا خلال فترة زمنية قصيرة، ستقوم خوارزميات الذكاء الاصطناعي بتحويلها إلى الهيئات للتأكّد من المعلومات الواردة ثم تقييمها وبالتالي ستختفي الروابط ذات التقييم المُنخفض ولن تنجح في احتلال المراكز الأولى في اقتراحات آخر الأخبار داخل الشبكة الزرقاء [2].

 

إلى هُنا تبدو جهود فيسبوك حثيثة لإيقاف مشكلة يشتكي منها الكثير من المستخدمين. وبالعودة إلى الواقع، فإن انتشار الأخبار الكاذبة ليس بتلك الخطورة، لأن المستخدم وببساطة بإمكانه زيارة بعض المصادر الموثوقة للتأكّد من صحّة تلك الأخبار، خصوصًا أن المواقع التي تروّج للأخبار الكاذبة دائمًا ما تنسب بعض المعلومات إلى هيئات ذات مصداقية لإيقاع المستخدم في فخّها، وبالتالي وبزيارة بسيطة يُمكن تأكيد أو تكذيب تلك الادّعاءات.

 

حبّذا لو كان الأمر بتلك البساطة عند الحديث عن الاستغلال البشع للبث المُباشر ولمشاركة مقاطع الفيديو عبر الشبكة، لأن فيسبوك أصبحت مرتعًا لحالات الانتحار أو جرائم القتل.

 

في شهر أبريل/نيسان 2017، أقدم شخص على قتل عجوز يبلغ 74 عامًا، حيث قام المُجرم بتصوير الجريمة ثم رفعها على حسابه الشخصي في فيسبوك، ليقوم بعدها ببدء بث مُباشر مُخبرًا متابعيه أنه يبحث عن ضحيّته الثانية قبل أن ينتحر ويقتل نفسه [3].

 

هنا وقعت فيسبوك في مرمى النيران لكونها جزءًا من الجريمة، فهي -بحسب وجهة نظر البعض- تساهم بشكل أو بآخر في جعل هذا الأمر عاديًا جدًا، أي أنها تُحفّز على انتشار العنف ومَشاهِده دون وجود أية قيود.

 

ما زاد الطين بِلّه هو كثرة حالات الانتحار على الهواء، وهذا ليس بالأمر الجديد أبدًا، لكنه انتشر خلال الفترة الأخيرة. في تايلاند أقدم رجل على قتل طفلته الرضيعة وشارك الجريمة أيضًا على حسابه عبر مقطعين؛ الأول نجح في حصد أكثر من 112 ألف مشاهدة، والثاني أكثر من 258 ألف خلال أقل من 24 ساعة. كما نجحت تلك المقاطع في شق طريقها نحو يوتيوب الذي قام بإزالتها خلال ربع ساعة بعد وصول الكثير من التبليغات، وهي نقطة تتفوّق بها منصّة يوتيوب على فيسبوك [4].

 

الانتحار والقتل على الهواء

يرى البعض فيسبوك على أنها أداة للانتحار أو القتل، وهذا أدّى لتلقّيها نقدًا لاذعًا من كل حدب وصوب. بل وطالبتها بعض الجهات بإغلاق خاصيّة البث المُباشر وميّزة مشاركة مقاطع الفيديو على الشبكة!

 

تلك المُطالبات غير منطقية، لأنها وكمن يطلب من شركة إنتاج السكّاكين تعليق خطوط الإنتاج لأن إحدى السكاكين استُخدمت في جريمة قتل، على الرغم من كون الحالة سوء استخدام فقط.

 

العاملين في فيسبوك لم يقفوا مكتوفي الأيدي وقرّروا التعقّل أكثر والتفكير خارج الصندوق، فإيقاف إمكانية بث الفيديو المباشر أو رفع مقاطع الفيديو أمر بعيد كل البعد عن المنطق. وهنا تم اللجوء إلى التقنية لإصلاح ما أفسدته التقنية نفسها.

 

طوّرت فيسبوك مجموعة من الأدوات لمحاربة هذا الأمر من خلال مجموعة كبيرة من الخطوات التي ستزداد وتتطوّر مع مرور الوقت. الأمر بُرمّته عبارة عن مجموعة من الطبقات المُتراكبة لمحاولة إيقاف انتشار هذا النوع من المُحتوى.

 

بدايةً توفّر الشبكة أدوات تسمح لأي شخص بالتبليغ عن أي مشاركة يبدو صاحبها مُضطربًا أو أنه في طريقه للإقدام على الانتحار، لتقوم الشبكة فورًا بتحليل المُشاركة وعرض مُساعدة على صاحبها سواءً عن طريق أصدقائه، أو عن طريق بعض الهيئات المُتخصّصة في هذا المجال؛ فهي تعاقدت كذلك مع هيئات مُتخصّصة في مُساعدة مثل هذه الحالات في العدول عن قرار الانتحار.

 

وتمتلك الشبكة الاجتماعية فريقًا مُتخصّصًا بقضايا المُجتمع، أي المحتوى الذي يبعث على الكراهية أو يُحرّض على العنف، وهو تمامًا ما تندرج تحته مقاطع فيديو القتل أو الانتحار. هذا الفريق أُضيف إليه مؤخرًا ثلاثة آلاف موظّف جديد في أماكن مُختلفة حول العالم لمتابعة التبليغات الواردة أولًا بأول، ليُصبح إجمالي العاملين فيه 7500 موظّف تقريبًا [6].

 

وستتدخّل خوارزميات الذكاء الاصطناعي لمعرفة المشاركات التي تحتوي على بعض الكلمات التي يلجأ المنتحر إلى كتابتها، وهذا لعرض المُساعدة على صاحب المشاركة حتى دون أن تستلم فيسبوك بلاغًا من أحد الأصدقاء، فالرقابة ستُطبّق على جميع المُشاركات تقريبًا دون استثناء.

 

هذا لو كانت محاولات الانتحار كتابية وتقتصر على النصوص فقط. أما وعندما يتعلّق الأمر بالبث المباشر وبالفيديو، فخوارزميات تعلّم الآلة رفقة الذكاء الاصطناعي والتعرّف على العناصر داخل الصور ستتكامل فيما بينها للحد قدر الإمكان من الانتحار على الهواء [5].

 

طوّرت فيسبوك خوارزميات قادرة على تحليل كل بيسكل داخل الصور ومقاطع الفيديو، وهذا بغرض معرفة العناصر ومُساعدة فاقدي حاسّة البصر على معرفة محتوياتها. لكن نفس الخوارزميات سوف تُستخدم للتعرّف على الأدوات الحادّة كالأسلحة البيضاء أو الأسلحة الثقيلة داخل مقاطع الفيديو لإزالتها وتحويلها إلى الفريق المسؤول من أجل الاطّلاع على محتواها أولًا، والتأكّد من عدم وجود محاولات للقتل أو للانتحار قبل الموافقة عليها.

 

فيسبوك طوّرت أيضًا أداة للبحث داخل الصور ومقاطع الفيديو، أي أن المستخدم بإمكانه الآن البحث عن صورته التي يرتدي فيها قُبّعة زرقاء لتقوم الخوارزميات بالعثور عليها وعرضها، وبالتالي فإن التعرّف على العناصر لم يعد بالأمر الصعب خصوصًا أن الشركة تُجري شهريًا أكثر من 1.2 مليون تجربة لخوارزميات الذكاء الاصطناعي [7].

 

أكّدت الشبكة كذلك أن أدوات جديدة تحت الاختبار تقوم بتحليل المقاطع، وهي تقنيات ستعمل جنبًا إلى جنب مع بقية خوارزميات تحليل الصور والفيديو لرفع مستوى الأمان على الشبكة، وهو ما اتضحت فاعليته الجزئية في حجب عدد مهول من الفيديوهات التي بثها منفذ المجزرة الأخيرة في نيوزيلندا.

 

ولأن الاعتراف بالذنب فضيلة، ذكرت فيسبوك أنها وعلى الرغم من جهود فرق عملها التي تعمل 24 ساعة على مدار الأسبوع لمتابعة التبليغات الواردة، فإنها تنوي تقليل فترة الانتظار قبل الإجابة لتُصبح أقل من 24 ساعة، وبالتالي ستتجاوب مع الشكاوى بأسرع وقت ممكن، وهو ما قد يحد بدوره من حالات الانتحار لأن الفرق ستتدخّل وستقوم بإبلاغ السُلطات لمحاولة إنقاذ الشخص بشكل فوري.

 

تطوير آليات للرد على البلاغات بسرعة قد يُساهم بالفعل في إنقاذ حياة شخص، وتجنيب بقية مُستخدمي الشبكة من مشاهدة الكوارث، فحتى لو أقدم الشخص على الانتحار أو على جريمة القتل، لن يبقى المقطع لفترة طويلة على الشبكة.

 

مارك زوكبيرغ، وخلال مؤتمر المُطوّرين تطرّق لهذه النقطة مؤكدًا أن الشبكة ستبذل كل ما بوسعها للتقليل من هذه الكوارث، فهي قطعت شوطًا طويلًا في هذا المجال، وتنوي المُضي قدمًا كذلك دون توقّف [8].

 

لا يُمكن لوم فيسبوك أبدًا، ولا حتى مُعاملتها على أنها المُتسبّب الأول بتلك الحالات، فبحسب الدراسات، تُسجّل حالة انتحار كل 40 ثانية في مناطق مُتفرّقة حول العالم. كما أن الانتحار يُعتبر المُسبّب الثاني للوفاة في أوساط الأشخاص الذين تتراوح أعمارهم بين 15 و29 عامًا. وما الشبكات الاجتماعية سوى وسيلة استُخدمت بشكل خاطئ لإظهار تلك الحالات وليس للتشجيع عليها، فهي كانت ستجري بوجود فيسبوك أو بدونها [9].

 

وبذلك، فإن التقنية حالها حال أي شيء آخر في الدنيا، من المُستحيل أن تُصيب دائمًا، ولها وجهان كذلك، القبيح والجميل، وبالتالي فإن انتشار تلك الظواهر وتحديدًا الانتحار والقتل عبر البث المباشر ليس سوى استخدامًا خاطئًا يُظهر وجهها القبيح، لكنه أمر لا يمنع كذلك من الضعط على الشركة الزرقاء لإيجاد حلول فاعلة قادرة على ضبط وكبح وحجب مثل هذه الحوادث الإجرامية.


التعليقات