اكتشف التوافق بواسطة علامة زودياك
التخريب المتعمد في ويكيبيديا يمكن أن يحبط الخداع على جوجل ويوتيوب وفيسبوك
تدقيق الحقائق

للحظة وجيزة ، أيد الحزب الجمهوري في كاليفورنيا النازية. على الأقل ، هذا ما قالته Google.
وذلك لأن شخصًا ما قام بتخريب صفحة ويكيبيديا للحزب في 31 مايو لإدراج 'النازية' جنبًا إلى جنب مع أيديولوجيات مثل 'المحافظة' و 'ليبرالية السوق' و 'المحافظة المالية'. تمت إزالة الخطأ من نتائج البحث مع جوجل التوضيح لنائب الأخبار أن محرك البحث قد فشل في ضبط التخريب في مدخل ويكيبيديا.
إذا كنت تبحث عن 'California Republicans' على Google ، فإن Google تدرج كلمة 'Nazism' كإحدى الأيديولوجيات. pic.twitter.com/JblamxkyF7
- إريك ويلسون (ericwilson) 31 مايو 2018
جوجل لديه منذ فترة طويلة الموسوعة عبر الإنترنت لإلحاق المعلومات الأساسية بنتائج البحث. وفق سجل التعديل لصفحة 'الحزب الجمهوري في كاليفورنيا' ، أضاف أحدهم 'النازية' إلى قسم أيديولوجية الحزب في حوالي الساعة 7:40 بالتوقيت العالمي المنسق يوم 31 مايو. تمت إزالة التعديل في غضون دقيقة ، ولكن يبدو أن خوارزمية Google قد ألغت الصفحة في الوقت المناسب تمامًا بسبب التزييف.
قال متحدث باسم Google لبوينتر في رسالة بريد إلكتروني: 'أحيانًا يخرب الناس مصادر المعلومات العامة ، مثل ويكيبيديا ، مما قد يؤثر على المعلومات التي تظهر في البحث'. 'لدينا أنظمة مطبقة تكتشف أعمال التخريب قبل أن تؤثر في نتائج البحث ، ولكن أحيانًا تظهر الأخطاء ، وهذا ما حدث هنا'.
كما أصدرت مؤسسة ويكيميديا ، وهي منظمة غير ربحية تدير ويكيبيديا ، بيانًا على موقع تويتر.
ظهرت نتيجة بطاقة معلومات Google عن أعمال تخريب من ملف ويكيبيديا مقال اليوم. إليك المزيد حول ما حدث وكيفية معالجة التخريب على ويكيبيديا. pic.twitter.com/fcoaK2DsXq
- ويكيميديا (Wikimedia) 1 يونيو 2018
وفقًا لـ Google ، فإن أكثر من 99.9 بالمائة من تعديلات ويكيبيديا التي تظهر في لوحات المعرفة ، والتي تعرض المعلومات الأساسية حول الكلمات الرئيسية القابلة للبحث في أعلى النتائج ، ليست تخريبًا. المستخدم الذي كتب التعديل الأصلي لصفحة 'مجموعة كاليفورنيا' لم تستخدم ملف تعريف المستخدم ، مما يجعل من الصعب تعقبهم.
هذا تكتيك شائع بين الأشخاص الذين يخربون صفحات ويكيبيديا ، وهي ممارسة تتبعها المنظمة غير الربحية موثقة على نطاق واسع . ولكن بالنظر إلى حجم التعديلات التي تم إجراؤها على ويكيبيديا - حوالي 10 في الثانية ، مع 600 صفحة جديدة في اليوم - وحقيقة أن Facebook و YouTube يسحبان منهم الآن لتوفير المزيد من السياق للمشاركات ، فإن احتمال حدوث إساءة استخدام وتأثيره مرتفع.
'بالطبع إنها طريقة ضعيفة جدًا لمكافحة الأخبار المزيفة لأن ويكيبيديا ليست مصدرًا موثوقًا للمعلومات - كما تعترف ويكيبيديا ،' ماغنوس فارو هانسن ، باحث ما بعد الدكتوراه في جامعة كوبنهاغن ، في رسالة إلى بوينتر. 'ويكيبيديا معرضة بشدة للخداع وتحتوي على جميع أنواع المعلومات المضللة ، لذا فهي ليست طريقة جادة للغاية لمكافحة مشكلة الأخبار المفبركة.'
كان هانسن يحرر صفحات ويكيبيديا منذ حوالي 10 سنوات وقال إن التخريب أمر شائع على المنصة. عدد المحررين تضاءل في السنوات الأخيرة ، في حين أن الثوار عبر الإنترنت لديهم استهدفت المنصة بشكل متزايد - مشكلة أن وصل إلى ذروته خلال جدل Gamergate في عام 2014. إنها في الأساس لعبة أرقام.
هذا بعيد كل البعد عن حيث كانت ويكيبيديا في عام 2005 ، عندما وجدت دراسة أنها كانت دقيقة مثل بريتانيكا. كما أنه يجعل من الصعب على المحررين المتطوعين مكافحة التخريب على نطاق واسع على ويكيبيديا ، والذي لا يبشر بالخير لاستخدامه لمكافحة المعلومات الخاطئة على المنصات الأخرى.
قال هانسن: 'بالتأكيد هناك الكثير من المعلومات الخاطئة على ويكيبيديا ، وسيبقى الكثير منها'. 'في كثير من الأحيان يكتب شخص ما مقالاً وقد تمر سنوات قبل أن يأتي أحدهم ويعدله. لا يقوم الناس بالتحقق من الحقائق ما لم يكن هناك شيء يبدو وكأنه في غير محله '.
واحد مقالة ويكيبيديا ملفقة عاش على الموقع لمدة عقد قبل أن يتم حذفه في عام 2015.
في الوقت نفسه ، أثبتت المنصة أنها مقاومة لهذا النوع من الخدع التي تنتشر بانتظام فيسبوك و تويتر . تقديرات ويكيميديا أن حوالي 2.5 في المائة من التعديلات اليومية عبارة عن تخريب ، وأشارت سامانثا لين ، مديرة الاتصالات في ويكيميديا ، إلى خوارزمية تحدد تلقائيًا التعديلات المشكوك فيها باعتبارها نجاحًا رئيسيًا لجهودها المتعلقة بالنزاهة.
وقالت لبوينتر في رسالة بالبريد الإلكتروني: 'تميل المقالات إلى تقديم تمثيل متوازن للحقائق ، وقد أثبت الموقع مرونة في مواجهة الأخبار المزيفة والمعلومات الخاطئة حتى هذه اللحظة'. 'لقد عملنا أيضًا مع المحررين المتطوعين في العامين الماضيين لبناء أدوات الإشراف وتحسينها للتعرف بسرعة على أعمال التخريب على ويكيبيديا ومعالجتها'.
بالإضافة إلى القيود الخاصة بـ Wikipedia ، غالبًا ما تكون الأنظمة الخاصة بالمنصات التقنية موضوعًا للأخطاء والجدل - خاصة لوحات المعرفة.
أيضًا في 31 مايو ، تم البحث عن سناتور جمهوري مؤيد لدونالد ترامب في ولاية كارولينا الشمالية ظهرت صورة لها مع 'متعصب' مكتوب في الأسفل. في كانون الثاني (يناير) ، اكتشفت The Daily Caller أن Google أخطأت في إلحاق عمليات التحقق من الحقائق بمحتواها وليس بمنافذ أخرى. أدى ذلك إلى قيام شركة التكنولوجيا بتعليق الميزة حتى تعمل على حل الأخطاء.
أخبرت Google بوينتر أنها لا تغير نتائج البحث يدويًا لإظهار التفضيل لطرف على الآخر. لكن خوارزمياتها يتم التلاعب بها بانتظام الخدع و إعلانات وهمية والمتصيدون الذين يسعون إلى تعديل نتائج البحث. ويمكن أن تمتد هذه المشاكل إلى منصات أخرى مرتبطة بـ Wikipedia.
قال هانسن: 'عندما تستخدم المزيد من منصات الوسائط محتوى من ويكيبيديا دون نقد ، فإن ذلك يزيد من المخاطر - سواء بالنسبة لأولئك الذين قد يضللون أو يخدعوا والذين قد ينشرون المعرفة'. 'أعتقد ، خاصةً مع الارتباط بـ Wikipedia من مقاطع فيديو YouTube حول نظريات المؤامرة ، قد يكون لذلك تأثير جذب الجمهور الخطأ.'
في مارس ، أعلن موقع يوتيوب أنه سيرتبط مباشرة بصفحات ويكيبيديا في أوصاف الفيديو من أجل توفير المزيد من السياق وفضح نظريات المؤامرة الفيروسية ، والتي غالبًا ما ينتشر بسرعة بعد الأحداث الإخبارية العاجلة. تلك 'إشارات المعلومات' - التي تم تقديمها على المنصة بدون علم ويكيبيديا - سيتضمن سطرًا قصيرًا عن المصدر ورابطًا لصفحة ويكيبيديا الخاصة به.
لم يتم طرح هذه الميزة بعد ، لكن YouTube قدم ميزة مماثلة في فبراير توفر المزيد من السياق للمؤسسات الإخبارية التي تتلقى الأموال من حكومة الولايات المتحدة.

(لقطة شاشة من يوتيوب)
نظرًا لزيادة وضوح صفحات ويكيبيديا ، فمن المتصور أن المخربين قد يتدفقون على النظام الأساسي من أجل التصيد على منصات متعددة بتعديل واحد.
لطالما كانت 'اختراق' ويكيبيديا مشكلة ، لكنها كانت مشكلة أثرت فقط على قراء ويكيبيديا. قالت كلير واردل ، المديرة التنفيذية لـ First Draft ، في رسالة بريد إلكتروني إلى Poynter ، إن الأمر الآن أكثر خطورة حيث يتم سحب المنصات تلقائيًا بشكل متزايد من ويكيبيديا. 'بالنسبة إلى وكلاء المعلومات المضللة الذين يريدون أقصى قدر من التضخيم ، فإن أي تقنية تضمن المنصات أو غرف الأخبار ستتكرر وبالتالي تضفي الشرعية على الكذبة ، وتوفر' عائدًا غير متناسب على الاستثمار '.
قال ليان ، على الرغم من كونها مصدرًا لمزيد من المنصات ، إلا أن ويكيبيديا لم تشهد ارتفاعًا في أعمال التخريب. ولكن بالنظر إلى كيف فاجأت الإضافات المنظمة على حين غرة ، فليس من المؤكد بالضبط كيف ستؤثر على تكامل صفحات ويكيبيديا.
وقالت: 'إن اتجاه شركات التكنولوجيا التي تستخدم ويكيبيديا لمعالجة قضايا المعلومات الخاطئة على منصاتها الخاصة هو مجال جديد بالنسبة لنا ، ولا نعرف ما هي الآثار الكاملة التي ستكون عليها'. 'على المدى القصير ، نراقب عن كثب كيف يؤثر ذلك على ويكيبيديا ومجتمعنا العالمي من المتطوعين. لم نر أي شيء من شأنه أن يشير إلى قضية تخريب أوسع نطاقًا حتى الآن '.
ولكن حتى لو كانت هناك زيادة في تخريب ويكيبيديا بقصد تغيير النتائج على المنصات ، قال ليان إن المنظمة لن يكون لديها أي وسيلة لمعرفة ذلك.
وقالت: 'ليس لدينا بيانات متاحة تشير إلى اتجاهات التخريب بقصد واضح للتلاعب بالمنصات الأخرى'.
إذن ما مدى احتمالية أن تشق المزيد من المعلومات المضللة طريقها إلى منصات أخرى؟ أخبر جوزيف ريجل ، أستاذ الاتصالات المساعد في جامعة نورث إيسترن وخبير ويكيبيديا ، بوينتر أنه بينما لا توجد طريقة لمعرفة دون وجود أنظمة المراقبة الصحيحة ، فإن الهيكل الذي تم إعداده يمكن أن يجعل المعلومات الخاطئة أكثر وضوحًا - حتى عندما لا يتم إنشاؤها للعبة منصات مثل جوجل وفيسبوك.
'نعم ، هذا محتمل ، وأعتقد أنه سيصبح أكثر احتمالًا مع استمرار هذه الشركات الربحية في القفز على عربة' ، قال. 'في حالة Google ، لا أعتقد أن القصد من التعديل هو تلويث مستخدمي Wikipedia في المصب ، ولكن لا يزال هذا هو التأثير. حقيقة أن ويكيبيديا تستخدم من قبل هذه المجمعات النهائية من نوع ما ستجعل ويكيبيديا هدفًا أكثر ، وهو أمر مثير للقلق '.
ومع ذلك ، على الرغم من تقلصها ، لا يزال لدى ويكيبيديا مجتمع ملتزم من المحررين سنوات من الخبرة التعامل مع مقالات عن الأخبار العاجلة. قال ناثان ماتياس ، باحث ما بعد الدكتوراه في جامعة برينستون ، لبوينتر في رسالة بريد إلكتروني أنه من غير المحتمل أن تتسرب المعلومات المضللة بشكل متكرر من خلال الثغرات بسبب هذا المجتمع.
ولكن على أطراف الموقع ، تزداد هذه الفرصة بشكل كبير.
قال: 'في حالات الأخبار العاجلة ، حيث طور النشطاء من جميع الأنواع طرقًا للتأثير على خوارزميات المنصة بشكل أسرع من سرعة الصحافة ، أتوقع أن تكون ويكيبيديا أكثر مرونة في التأثير'. 'ستكون المخاطر التي تتعرض لها ويكيبيديا والمنصات أكبر على هامش المعرفة والاهتمام ، نظرًا لأنه من الصعب تحديد مجموعة صغيرة من الأشخاص الذين يصلون إلى مواد متطرفة غير بارزة.'
على الرغم من التحديات ، يرى بعض الخبراء أن ربط المنصات التقنية بصفحات ويكيبيديا خطوة إلى الأمام لمواجهة التضليل عبر الإنترنت.
قالت إيني مصطفراج ، الأستاذة المساعدة في علوم الكمبيوتر في كلية ويلسلي ، لبوينتر في رسالة بريد إلكتروني أن إضافة ويكيبيديا إلى منصات التكنولوجيا الكبيرة هي خطوة إيجابية. لكنها تأتي مع محاذير.
وقالت: 'إنهم بحاجة إلى القيام بذلك باستمرار ، وليس فقط لمكافحة المعلومات المضللة أو الخدع أو نظريات المؤامرة'. 'من أجل مكافحة المعلومات المضللة ، لا ينبغي أن نضع فيسبوك وجوجل في المسؤولية ، لأنهم هم الذين فاقموا المشكلة في المقام الأول.'
في الوقت نفسه ، قد يؤدي إخراج المعلومات من ويكيبيديا خارج النظام الأساسي إلى إرباك القراء بطبيعته. قال هانسن إن رؤية روابط إلى الموقع من منصات وسائل التواصل الاجتماعي ، حتى لو تم تصنيفها جيدًا ، لن تثير نفس النوع من الشك المتأصل في مستخدمي ويكيبيديا.
'القارئ لا يعرف أن هذا من ويكيبيديا. يقدم هذا النوع طبقة لا يمكنك التأكد من مصدر المعلومات '. 'يكون الناس متشككين عندما يكونون على ويكيبيديا - يمكنك أن ترى عندما لا يكون هناك مصدر ... عندما تكون على نظام أساسي مختلف ، فأنت لست متيقظًا لهذا النوع من الأشياء.'
ثم هناك مسألة النطاق الترددي. مع استمرار تراجع التحرير ، قد ترغب ويكيبيديا في التفكير في تعيين موظفين بدوام كامل تتمثل مهمتهم في مراقبة التخريب والتأكد من عدم انتشاره إلى منصات أخرى. قال هانسن إنه يعتقد أن المنظمة غير الربحية يجب أن تنشئ وحدة داخلية للتحقق من الحقائق أو تطلب من محررين وأكاديميين خبراء للتأثير في بعض الصفحات الأكثر دقة.
قال 'أعتقد أن هذه هي الطريقة الوحيدة لمكافحة المعلومات المضللة على ويكيبيديا'.
على أقل تقدير ، اقترح Lien أن المنصات التقنية التي تستخدم ويكيبيديا لمواجهة المعلومات المضللة تعيد إلى المنظمة غير الربحية بطريقة ما - وهي نقطة جادلت فيها المديرة التنفيذية لموقع ويكيميديا كاثرين ماهر مقال حديث لـ Wired . (فيسبوك ويوتيوب لم يتم تضمينها من بين كبار المستفيدين من ويكيميديا.)
وقالت: 'نشجع الشركات التي تستخدم محتوى ويكيبيديا على رد الجميل بنفس روح الاستدامة'. 'من خلال القيام بذلك ، سينضمون إلى ملايين الأفراد الذين يشاركون للحفاظ على ويكيبيديا قوية ومزدهرة.'
ووافق ماتياس.
قال: 'إذا كانت الشركات تتوقع الاعتماد على كميات هائلة من العمل غير المأجور والذي غالبًا ما يكون مرهقًا نفسيًا من Wikipedians ومؤسسة Wikimedia لمعالجة بعض أصعب مشاكلهم ، فإنهم بحاجة إلى إيجاد طرق لدعم هذا العمل مع حماية الاستقلال الفكري لـ Wikipedia'.