لا أدري متى بدأت ألاحظ الأمر، لكن فجأة، وجدتُ نفسي محاصرة، فتحت يوتيوب، وظهر لي فيديو يتحدث عن فكرة كنت أفكر فيها بالأمس، ثم آخر يدعم وجهة نظري تمامًا. انتقلت إلى تيك توك، وإذا بالمحتوى نفسه يتكرر، مع مزيد من التأكيد على ما أؤمن به مسبقًا. في البداية، كان ذلك مريحًا، كأن الخوارزميات تفهمني أكثر من أصدقائي. لكن مع الوقت، شعرت بشيء غريب.. أين ذهبت وجهات النظر الأخرى؟ هل توقفت عن رؤية محتوى مختلف؟
السر يكمن في آلية عمل خوارزميات يوتيوب وتيك توك، والتي تعتمد على فلترة المحتوى بناءً على تفضيلات المستخدم . هذه المنصات تحلل سلوكنا: ما نشاهده، كم من الوقت نبقى على فيديو معين، ماذا نعجب به، وما نتجاهله. ومن ثم، تقترح المزيد من المحتوى المشابه، مما يخلق فقاعة تصفية (Filter Bubble) لا نرى فيها سوى ما يتفق مع آرائنا. على تيك توك، يكون التأثير أسرع، حيث يحدد النظام تفضيلات المستخدم خلال دقائق بناءً على تفاعلاته . أما يوتيوب، فيعمل بطريقة أكثر تعقيدًا، حيث يمكن أن يتحول اقتراح الفيديوهات تدريجيًا إلى ما يُعرف بالانحدار نحو التطرف (Rabbit Hole Effect)، حيث ينتقل المستخدم من محتوى عادي إلى أفكار أكثر تطرفًا مع الوقت . عندما نعيش داخل هذه الفقاعة، تتشكل لدينا قناعات قوية، ليس لأنها صحيحة بالضرورة، بل لأننا لا نرى أي شيء يناقضها. قد يصبح الأمر خطيرًا عندما يتعلق بالمعلومات الصحية، السياسية، أو الاجتماعية
في أكتوبر 2024، انتشر مقطع فيديو على الإنترنت يُظهر إعصارًا ضخمًا زُعم أنه يصور الإعصار ميلتون الذي ضرب ولاية فلوريدا الأمريكية. تبيّن لاحقًا أن الفيديو مُنتج رقميًا باستخدام الذكاء الاصطناعي ولا يعكس حدثًا حقيقيًا. ورغم ذلك، ساهمت خوارزميات تيك توك في انتشار هذا الفيديو على نطاق واسع، مما أدى إلى تضليل المستخدمين وتعزيز فقاعة المعلومات المضللة.
إذا كانت الخوارزميات مصممة لجعل تجربتنا أكثر راحة، فهل نحن مستعدون لدفع ثمن هذه الراحة بفقدان التنوع الفكري؟ هل يمكننا فعلًا الخروج من هذه الفقاعة، أم أن التكنولوجيا أصبحت أذكى منا؟
ما رأيك... كيف يمكننا كسر فقاعة المعلومات التي تخلقها خوارزميات يوتيوب وتيك توك دون فقدان تجربة التصفح الشخصية؟
التعليقات