• رئيسي
  • أخبار
  • تسبب تجربة Facebook الكثير من الضجة مقابل نتائج قليلة

تسبب تجربة Facebook الكثير من الضجة مقابل نتائج قليلة

أرسلت دراسة تلاعب فيها فيسبوك بخلاصات الأخبار لأكثر من 600 ألف مستخدم إلى مستخدمي وسائل التواصل الاجتماعي في حالة من الإغماء السيبراني هذا الأسبوع وامتدت إلى وسائل الإعلام الرئيسية: بدأ عنوان 'فيسبوك يتلاعب بعواطف المستخدمين' ، العنوان الرئيسي في صحيفة نيويورك تايمز موقع الكتروني.


لكن الجدل حول ما فعله هؤلاء الباحثون قد يلقي بظلاله على مناقشات مهمة أخرى ، وتحديداً المحادثات حول ما وجدوه بالفعل - ليس كثيرًا ، في الواقع - والطريقة الصحيحة والخاطئة للتفكير في النتائج والإبلاغ عنها بناءً على التحليلات الإحصائية للبيانات الضخمة. (سنصل إلى أخلاقيات تجربتهم بعد قليل.)

نظرًا لأنها كبيرة جدًا ، يمكن للدراسات المستندة إلى عينات متضخمة أن تنتج نتائج ذات دلالة إحصائية ولكنها في نفس الوقت تافهة من حيث الجوهر. إنها عملية حسابية بسيطة: كلما كان حجم العينة أكبر ، يجب أن تكون أي اختلافات أصغر لكي تكون ذات دلالة إحصائية - أي أنه من المحتمل جدًا أن تكون مختلفة حقًا عن بعضها البعض. (في هذه الدراسة ، كانت الاختلافات التي تم فحصها بين أولئك الذين رأوا المزيد وأولئك الذين شاهدوا عددًا أقل من المنشورات المليئة بالمشاعر مقارنةً بمجموعة التحكم التي لم يتم التلاعب بخلاصاتها الإخبارية).


وعندما يكون لديك عينة عشوائية هائلة من 689.003 ، كما فعل هؤلاء الباحثون ، حتى الاختلافات الصغيرة تجتاز الاختبارات القياسية ذات الأهمية. (بالنسبة للمنظور ، حجم العينة النموذجي في استطلاع الرأي العام الممثل على المستوى الوطني هو 1،000).

لهذا السبب تحذر أجيال من معلمي الإحصاء طلابهم من أن 'الدلالة الإحصائية' لا تعني بالضرورة 'حقًا' ،هل حقامهم'.

تجربة Facebook على التلاعب بخلاصة الأخبارضع في اعتبارك نتائج دراسة Facebook التي قاموا فيها بتغيير عدد المشاركات الإيجابية والسلبية من الأصدقاء الذين تم اختبارهم. تم تحديد المشاركات على أنها إيجابية أو سلبية إذا كانت تحتوي على كلمة واحدة إيجابية أو سلبية. بعد ذلك ، تمت مراقبة استخدام الشخص موضوع الاختبار للكلمات الإيجابية والسلبية في تحديثات الحالة لمدة أسبوع. إجمالاً ، نشر المشاركون في الاختبار ما مجموعه 122 مليون كلمة ، أربعة ملايين منها كانت إيجابية و 1.8 مليون سلبية.



وفقًا لما ذكره المؤلفون ، زاد عدد الكلمات السلبية المستخدمة في تحديثات الحالة ، في المتوسط ​​، بنسبة 0.04٪ عندما تم تقليل المشاركات الإيجابية لأصدقائهم في خلاصات الأخبار. هذا يعني فقط أربع كلمات سلبية أخرى لكل 10000 مكتوبة من قبل هؤلاء المشاركين في الدراسة. في الوقت نفسه ، انخفض عدد الكلمات الإيجابية بنسبة 0.1٪ فقط ، أو أقل من كلمة واحدة لكل 1000 كلمة مكتوبة. (كنقطة مرجعية ، هذا المنشور يزيد قليلاً عن 1000 كلمة.)


على العكس من ذلك ، عندما تم تقليل المشاركات السلبية ، تم استخدام سبع كلمات سلبية أقل لكل 10000 ، وارتفع عدد الكلمات الإيجابية بنحو ست كلمات لكل 10000.

بناءً على هذه النتائج ، خلص المؤلفون في دراستهم المنشورة إلى أن 'نتائجهم تشير إلى أن المشاعر التي عبر عنها الآخرون على Facebook تؤثر على عواطفنا ، وتشكل دليلًا تجريبيًا على انتشار العدوى على نطاق واسع عبر الشبكات الاجتماعية'.


لكن هل هذه التحولات الصغيرة ، حتى لو كانت حقيقية ، تشكل دليلاً على 'عدوى واسعة النطاق' مثيرة للقلق؟ بالطبع الأهمية في عين الناظر. بالنسبة للبعض ، قد تكون هذه التغييرات الصغيرة مدعاة للقلق. لكن بالنسبة للآخرين ، ربما يكونون عادلينمه.

يبدو أن أحد المؤلفين لديه أفكار أخرى حول اللغة التي استخدموها لوصف أعمالهم. في منشور على Facebook مكتوب ردًا على الجدل ، أقر آدم دي كريمر قائلاً: 'أنا والمؤلفون المشاركون معي آسفون جدًا للطريقة التي وصفت بها الورقة البحث'.

كما أشار إلى أنهم ، حتى مع عينتهم الضخمة ، لم يجدوا تأثيرًا كبيرًا بشكل خاص. وكتب أن النتائج استندت إلى 'الحد الأدنى من اكتشافها إحصائيًا - وكانت النتيجة أن الناس أنتجوا في المتوسط ​​كلمة عاطفية واحدة أقل ، لكل ألف كلمة ، خلال الأسبوع التالي'.

أثار النقاد أسئلة أخرى ، لا سيما مجلة The Atlantic و Wired ، التي تساءلت عما إذا كانت قراءة المنشورات الإيجابية تسببت بشكل مباشر في استخدام مستخدم Facebook كلمات أكثر إيجابية في تحديثاتهم اللاحقة.


لكن هل ما فعله فيسبوك أخلاقي؟ هناك قدر كبير من النقاش حول ما إذا كان Facebook شفافًا بدرجة كافية مع مستخدميه حول هذا النوع من التجارب. لم يخبروا المشاركين في الدراسة بشكل مباشر بأنهم سيستخدمون كجرذان مختبر بشري. في البحث الأكاديمي ، يُطلق على ذلك عدم الحصول على 'موافقة مستنيرة' ويكون دائمًا تقريبًا رفضًا كبيرًا. (يزعم Facebook أن كل من ينضم إلى Facebook يوافق على تضمينه في مثل هذه الدراسات كجزء من اتفاقية المستخدم الخاصة به).

السؤال الآن حول كيف ، بالجلوس على مجموعات من وسائل التواصل الاجتماعي الجديدة وغيرها من البيانات الرقمية التي يجب أن أستخدمها في نفس النوع من التحليل السلوكي ، يجب كتابة القواعد الجديدة.

تزخر الأبحاث التجريبية بأمثلة عن كيفية التلاعب بالمشاركين في الدراسة أو خداعهم أو كذبهم صراحة باسم العلوم الاجتماعية. وبينما تم كبح العديد من هذه الممارسات أو حظرها في الأوساط الأكاديمية ، إلا أنها لا تزال تُستخدم في أنواع البحوث التجارية وغيرها.

ضع في اعتبارك حالة 'Verifacitor' ، أحدث وأفضل جهاز للكشف عن الكذب في العالم - أو على الأقل هذا ما قيل لبعض المشاركين في هذه الدراسة التي أجراها باحثون في مركز أبحاث الرأي الوطني بجامعة شيكاغو في منتصف التسعينيات.

تم تقسيم الخاضعين للاختبار إلى مجموعتين. طُلب من أعضاء المجموعة الضابطة الجلوس في مكتب حيث طرح المحاور أسئلة حول عادات التمرين والتدخين وتعاطي المخدرات والممارسات الجنسية والإفراط في الشرب.

أجاب الأشخاص الخاضعون للاختبار على نفس الأسئلة أثناء توصيلهم بواسطة الأقطاب الكهربائية إلى Verifacitor ، الذي وصفه المشغل بأنه نوع جديد من كاشف الكذب. (في الواقع ، كانت مجرد مجموعة من مكونات الكمبيوتر القديمة التي كان الباحثون ملقاة حولها).

لزيادة تعزيز قول الحقيقة ، تم إخبار كل مشارك قبل بدء المقابلة الرسمية أن المشغل بحاجة إلى معايرة الآلة. لذلك طُلب من المشارك أن يكذب عشوائيًا ردًا على الأسئلة الديموغرافية المتعلقة به والتي تم طرحها مسبقًا في استبيان الفحص. (أسئلة مثل: هل أنت متزوج؟ هل أنهيت دراستك الثانوية؟ إلخ).

بالطبع تم إهمال المحاور عن الإجابات الصحيحة ، لذلك حددت على الفور استجابة زائفة ، مما أثار دهشة موضوع الاختبار.

حسنًا ، يمكنك تخمين ما حدث. أقر 44٪ من هؤلاء في مجموعة Verifacitor بأنهم استخدموا الكوكايين في أي وقت مضى مقارنة بـ 26٪ في المجموعة الضابطة. تم الإبلاغ عن ضعف النسبة تمامًا باستخدام الأمفيتامينات (39٪ مقابل 19٪) ، واستخدام عقاقير أخرى (39٪ مقابل 19٪) وشرب كحول أكثر مما ينبغي (34٪ مقابل 16٪).

بمعنى آخر ، لأبحاث العلوم الاجتماعية تاريخ طويل من التلاعب. هل ستتعلم من ماضيها؟