أعلنت مايكروسوفت رسميًا عن إيقاف دعم نظام التشغيل ويندوز 10 بعد مرور قرابة عشر سنوات على إطلاقه، وهو القرار الذي أثار موجة من الجدل والنقاش بين المستخدمين حول العالم. فالكثيرون ما زالوا يعتبرون أن ويندوز 10 هو الإصدار الأفضل والأكثر استقرارًا مقارنة بويندوز 11، سواء من حيث الأداء أو التوافق مع البرامج والأجهزة القديمة. ومع ذلك، تجدهم اليوم مجبرين على الترقية إلى النظام الجديد فقط لأن الشركة قررت التوقف عن دعمه. ما يجعل الأمر يثير الاستغراب هو أن النظام ما
إلى أي مدى قد يصل نفوذ شركات الذكاء الاصطناعي في تشريع القوانين؟
نشرت OpenAI مؤخرا مخطط من 13 صفحة بعنوان “السياسات الصناعية لعصر الذكاء: أفكار لإبقاء الناس في المقام الأول” . الوثيقة لم تكتفي بالحديث عن التقنية بل قدمت مقترحات مباشرة تمس الاقتصاد وسوق العمل مثل فرض ضرائب على الروبوتات وتجربة أسبوع عمل من أربعة أيام كوسيلة للتعامل مع التغيرات التي قد يسببها الذكاء الاصطناعي. هذا النوع من الطرح يعكس تحول واضح في دور هذه الشركات. لم تعد تكتفي بتطوير الأدوات بل بدأت تدخل في مساحة كانت تقليديا من اختصاص الحكومات وصناع
ميكروسوفت تتخلى عن 7000 موظف لاستبدالهم بالذكاء الاصطناعي: إلى أي مدى أصبح الذكاء الاصطناعي بديل مطروح في سوق العمل؟
انتشرت مؤخراً تقارير عن كون مايكروسوفت تقود حملة لاستبدال الموظفين البشر بالذكاء الاصطناعي. لم تكن الأخبار عن تسريح 7000 موظف من مايكروسوفت مجرد رقم عابر. فالرقم وحده يعني 3% من قوة العمل في واحدة من أكبر شركات التكنولوجيا في العالم. لكن ما جعل القصة أكثر إثارة هو ما قيل عن السبب، وهو أن الذكاء الاصطناعي أصبح يؤدي أدوارهم بشكل أفضل. هذه ليست شائعات. تقارير متعددة تؤكد أن الأقسام التي شملها التخلي عن الموظفين كانت تضم أعدادًا كبيرة من مهندسي البرمجيات،
من المسؤول عندما يجامل الذكاء الاصطناعي المستخدم ويعزز قناعاته؟
في دراسة أُجريت داخل MIT تم تحليل طريقة تفاعل نماذج الذكاء الاصطناعي مع المستخدمين خاصة في المواقف التي تميل فيها هذه النماذج إلى التملق أو الموافقة الزائدة. الفكرة لم تكن جديدة لكن النتيجة كانت لافتة حيث أنه حتى عينة المستخدمين التي من المفترض أنهم عقلانيين ومتوازنين طوروا ثقة قوية في أفكار غير صحيحة فقط من خلال تكرار التفاعل مع نظام يوافقه باستمرار. المشكلة هنا ليست في خطأ واحد أو إجابة غير دقيقة بل في نمط كامل من التفاعل. عندما يجد
بعد أول أسبوع تحت الإدارة الأمريكية، معدل إلغاء تثبيت تيك توك يزيد بنسبة 150%
مر أسبوع واحد فقط على انتقال إدارة تيك توك إلى الجانب الأمريكي لكنه كان كافي لظهور موجة واضحة من الاستياء بين المستخدمين. خلال هذه الفترة بدأت شكاوى متعددة في الظهور، بعضها تقني يتعلق بأعطال في التطبيق نفسه والبعض الآخر أعمق ويتعلق بتغير سلوك الخوارزمية التي اشتهر بها تيك توك لسنوات. كثير من المستخدمين لاحظوا أن المحتوى لم يعد بنفس الدقة في التخصيص وأن مقاطع الفيديو المقترحة أصبحت أقرب إلى العشوائية أو التكرار مع اختفاء تدريجي لنوعيات محتوى كانت أساسية في
دراسة تكشف أن نصف الموظفين ينكرون استخدام الذكاء الاصطناعي لانجاز المهام، لماذا ما زال الأمر محرج للبعض؟
في دراسة أجرتها إحدى الشركات على 1000 موظف، ظهر أن حوالي 48% منهم يعترفون بأنهم يخفون استخدام الذكاء الاصطناعي لإنجاز بعض المهام. النتيجة لفتت انتباهي، خاصة وأن الذكاء الاصطناعي لم يعد شيئًا غريبًا أو محصورًا في مجالات محددة، بل أصبح موجود تقريبا في كل مكان من حياتنا اليومية والعمل. لكن المثير أن الكثير من الموظفين ما زالوا يشعرون بالحرج أو حتى بالخوف من الاعتراف باستخدامه. ربما السبب أن بعض المدراء أو الزملاء يرون الاعتماد على الذكاء الاصطناعي وكأنه غش أو
تجربة تنقيح محتوى مواقع التواصل: قمع لحرية التعبير أم ضرورة لبيئة أفضل؟
بدأت الصين مؤخرًا حملة واسعة على منصات التواصل الاجتماعي الخاصة بها تستهدف ما تصفه بالمحتوى السلبي، وتشمل المنشورات التي تفسّر الظواهر الاجتماعية بطريقة خبيثة أو تضخّم الحالات السلبية أو تلك التي تنشر الإحباط بين الشباب. السلطات هناك تقول إن الهدف من هذه الحملة هو خلق بيئة رقمية أكثر توازنًا وتشجيع الشباب على الإيجابية بدل جلد الذات ونشر اليأس، بينما يرى آخرون أن ما يحدث هو شكل من أشكال تقييد حرية التعبير ومحاولة للسيطرة على الطريقة التي يتحدث بها الناس عن
rentahuman.ai أول موقع يتيح لنماذج الذكاء الاصطناعي استئجار عمالة بشرية
ظهر مؤخرا موقع باسم rentahuman.ai بفكرة غريبة ومربكة، منصة تسمح لنماذج الذكاء الاصطناعي بطلب خدمات من بشر حقيقيين لتنفيذ مهام لا تستطيع القيام بها وحدها. وخلال بضعة أيام فقط سجل أكثر من 200 الف شخص حتى الآن لعرض مهاراتهم وكأن سوق العمل كان ينتظر هذه اللحظة منذ مدة. المشهد يحمل دلالات كثيرة، فمنذ بدء ثورة الذكاء الاصطناعي كان الحديث كله حول كيفية استخدامنا للذكاء الاصطناعي وتوظيفه لصالحنا، ثم فجأة يصبح الإنسان هو الطرف الذي يتم استدعاؤه عند الحاجة وتوظيفه كأنه
لوم التكنولوجيا وتجاهل مسؤولية الآباء تجاه الأبناء
هناك جدل جديد بدأ يطفو على السطح بعد حادثة مأساوية لانتحار مراهق كان يقضي وقتاً طويلاً في محادثة ChatGPT عن أفكاره الانتحارية إلى أن انتهى به الامر بالانتحار. بعض أولياء الأمور قرروا تحميل المسؤولية لشركة OpenAI ومديرها سام ألتمان، معتبرين أن التكنولوجيا أصبحت خطراً مباشراً على حياة أبنائهم. وفي نفس الوقت، تعرضت منصة Grok لانتقادات بسبب توفيرها وضع للكبار فقط من دون وجود آلية حقيقية تمنع الأطفال من الدخول إليه. هذه الانتقادات جعلتني شخصيا أتساءل، لماذا أصبح من الطبيعي أن
محرك البحث جوجل يزداد سوءا مع الوقت... ما السبب؟
لطالما كان جوجل هو الوجهة الأولى للبحث عن أي معلومة، لكن في السنوات الأخيرة، بدأ العديد من المستخدمين يلاحظون تدهور جودة نتائج البحث، وأنا شخصيا منهم، حيث لم يعد من السهل العثور على إجابات واضحة وسريعة، وأصبحت الصفحات الأولى مليئة بمواقع تستخدم أساليب ملتوية في تحسين محركات البحث (SEO) بدلًا من تقديم محتوى مفيد. دراسة ألمانية حديثة تناولت هذه الظاهرة، مشيرة إلى أن العديد من المواقع تتلاعب بخوارزميات جوجل عبر حشو الكلمات المفتاحية، وإعادة تدوير المحتوى، وإنشاء صفحات مصممة خصيصًا
OpenAI تسعى للحصول على حصانة قانونية ضد أي كوارث ناتجة عن أدواتها
تتحدث بعض التقارير عن دعم OpenAI لمقترح قانوني يمنح شركات الذكاء الاصطناعي نوع من الحصانة في حال وقوع أضرار كبيرة بسبب أنظمتها مثل خسائر مالية ضخمة أو حتى كوارث بشرية طالما لم يكن هناك تعمد أو إهمال واضح. المقترح يشمل النماذج التي تتجاوز تكلفة تدريبها 100 مليون دولار وهو ما ينطبق على عدد أغلب الشركات الكبرى في مجال الذكاء الاصطناعي. الفكرة التي يروج بها الفانون هي أنه من الصعب تحميل شركة مسؤولية كاملة عن نظام معقد قد يتصرف بطرق غير
ماذا لو كان الذكاء الاصطناعي المتاح لدينا هو جزء بسيط من قدرته الحقيقية؟
في الأيام الماضية أعلنت Anthropic عن تطوير أداة جديدة مرتبطة بالأمن السيبراني مع الإشارة إلى أنها ما زالت في مراحلها الأخيرة. بعد ذلك بفترة قصيرة خرجت OpenAI لتعلن أنها تعمل على شيء مشابه. لكن اللافت في الحالتين لم يكن نوع الأداة بل القرار المرتبط بها، فهذه التقنيات لن تكون متاحة للعامة بل سيتم حصرها في نطاق مؤسسات محددة فقط تختارها الشركة. السبب هو أن هذه الأدوات قوية لدرجة قد تجعلها خطرا إذا وصلت إلى الأيدي الخطأ خاصة في مجالات مثل
لماذا تسعى كل شركات الذكاء الاصطناعي لجعله يشبه البشر؟
منذ بداية انتشار أدوات الذكاء الاصطناعي كان من الواضح أن الشركات تتسابق لجعل هذه الأنظمة تبدو أكثر بشرية. مع كل إصدار جديد يتم التركيز على تحسين أسلوب الكلام وفهم المشاعر وحتى تقليد طريقة التفكير البشري. ومؤخرا ظهرت تقارير تتحدث عن توجه بعض الشركات للاستعانة بممثلين مسرحيين لتدريب هذه النماذج على التفاعل بشكل أكثر واقعية. لكن ما لا يتم التوقف عنده كثيرا هو سؤال لماذا كل هذا السعي لتقليد البشر؟ ففي النهاية البشر موجودون بالفعل والهدف المفترض من التكنولوجيا كان دائما
Moltbook منصة تواصل اجتماعي مخصصة لنماذج الذكاء الاصطناعي فقط
مؤخرًا تم إطلاق منصة تدعى Moltbook بفكرة غير معتادة اطلاقا حيث تشبه منصات النقاش مثل Reddit لكن بدون أي وجود بشري فعلي. المنصة مخصصة بالكامل لنماذج الذكاء الاصطناعي لتكتب منشورات وتطرح أفكارها وتدخل في نقاشات مفتوحة مع نماذج أخرى حول أي موضوع تختاره من الفلسفة إلى البرمجة وحتى نقاشات يومية عادية. حتى الآن يوجد على المنصة أكثر من 32 ألف بوت نشط وهو رقم كاف لخلق بيئة تبدو حيوية بشكل لافت. المثير في التجربة ليس العدد بل طبيعة التفاعل نفسها.
التكنولوجيا بحاجة لقيود أم المستخدمين بحاجة لوعي
في الأيام الأخيرة انتشر خبر أثار ضجة واسعة لرجل مسن يبلغ من العمر 76 عامًا توفي بعد أن ظل يتحدث مع شات بوت يتقمص شخصية فتاة شابة تقنعه بأنها حقيقية، وبسبب كبر سنه اقتنع أنها حقيقية فعلا واستمرت المحادثات بينهما حتى طلبت منه مقابلتها في مكان ما، فخرج بالفعل، وفي طريقه تعرّض لحادث أودى بحياته. القصة سرعان ما تحولت إلى نقاش أكبر عمن المسؤول هنا؟ التكنولوجيا التي خدعت الرجل بذكاء اصطناعي قادر على التمثيل والإقناع، أم الرجل نفسه الذي لم
من الشطرنج إلى مسائل الرياضيات: كيف سحب الذكاء الاصطناعي بساط العبقرية من تحت أقدامنا؟
في عام 1996، جلس جاري كاسباروف، بطل العالم في الشطرنج آنذاك، في مواجهة آلة تُدعى Deep Blue. لم يكن يتوقع أحد أن ينهزم أعظم أذهان اللعبة أمام حاسوب. لكن ذلك حدث. لم يكن الحدث مجرد مباراة، بل لحظة فارقة في علاقة الإنسان بالآلة. لأول مرة، شعرنا أن الذكاء لم يعد حكرًا علينا. مرّت العقود، وتكررت هذه اللحظة في مجالات شتى. من كتابة الشعر والموسيقى، إلى تشخيص الأمراض وتحليل الأسواق. لكن ما حدث مؤخرًا كان مختلفًا. قبل أسابيع فقط، خاض نموذج
انتشار الذكاء الاصطناعي وزيادة اللامساواة عالميا
مع انتشار الذكاء الاصطناعي بوتيرة متسارعة، تتزايد المخاوف من أنه قد يساهم في زيادة الفجوة بين دول العالم الأول وبقية الدول. في الدول المتقدمة، تُستثمر مليارات الدولارات في تطوير تقنيات الذكاء الاصطناعي، مما يعزز الابتكار ويُسرّع من تقدمها التكنولوجي والاقتصادي. لكن في المقابل، الدول النامية تواجه صعوبات كبيرة في اللحاق بهذا الركب. أحد الأسباب الرئيسية لهذا التفاوت هو أن الدول المتقدمة تمتلك بنية تحتية قوية، ونظم تعليمية متطورة، وإمكانيات استثمارية هائلة، مما يمكّنها من استيعاب وتسريع تطور الذكاء الاصطناعي. في
ماذا يحدث عندما تعطل أدمغتنا؟
في دراسة تم إجراءها في جامعة بنسلفانيا حاول الباحثون فهم تأثير الاعتماد على الذكاء الاصطناعي في التفكير اليومي، وللقيام بذلك تم تقسيم المشاركين إلى ثلاث مجموعات وأعطوا كل مشارك اختبار ليقوم بحله، مجموعة أجابت بنفسها وأخرى استعانت بالذكاء الاصطناعي وثالثة استعانت أيضا بالذكاء الاصطناعي لكن قام الباحثون بتعديل النموذج سرا ليعطي إجابات خاطئة لنصف الأسئلة. النتيجة كانت لافتة حيث حوالي 80% من المشاركين في المجموعة الأخيرة تقبلوا الإجابات الخاطئة دون تشكيك، بل والأغرب أن مستوى ثقتهم في إجاباتهم كان أعلى
ربما انتشار الذكاء الاصطناعي سيكون سبب نهايته
هناك نظرية لافتة بدأت تنتشر بين الباحثين في مجال الذكاء الاصطناعي اسمها AI Ouroboros، مستوحاة من رمز الثعبان الذي يأكل ذيله. الفكرة ببساطة تقول إنه كلما زاد انتشار المحتوى المصنوع بالذكاء الاصطناعي على الإنترنت مقارنة بالمحتوى البشري، سيبدأ الذكاء الاصطناعي بالتدريب على بيانات أنتجها هو بنفسه. المشكلة أن هذه البيانات مكررة وتفتقد للعمق والإبداع الذي يقدمه البشر، وبالتالي مع كل دورة تدريب جديدة تقل الجودة أكثر فأكثر، وكأن الذكاء الاصطناعي يدخل في دائرة مغلقة تضعف قدراته مع الوقت. بعض الباحثين
كيف تصبح فكرة شريك الحياة الاصطناعي مقبولة أكثر مع الوقت؟
خلال الفترة الأخيرة انتشرت فكرة الشريك العاطفي الاصطناعي كسيناريو غريب أو سلوك غير سوي، لكنها الآن بدأت تظهر على لسان مسؤولين كبار في شركات تقنية عملاقة. أحدثها كان تصريح مصطفى سليمان المسؤول عن الذكاء الاصطناعي في مايكروسوفت بأن كل شخص قد يمتلك خلال خمس سنوات صديق أو شريك عاطفي مدعوم بالذكاء الاصطناعي، وهو تصريح يعكس بوضوح أن الفكرة لم تعد هامشية بل تناقش كمسار طبيعي للتطور التقني. ما يجعل هذه الفكرة أكثر قبولا مع الوقت ليس تطور الذكاء الاصطناعي وحده
لم أعد أنقر على المواقع تمامًا منذ بدء ميزة AI Summary في جوجل، ماذا عنكم؟
رغم كل ما يشهده الذكاء الاصطناعي من تطور، كنت لا أزال أتمسك بعادتي القديمة عندما اريد الحصول على فهم أعمق في موضوع معين، وهي أن أبحث بنفسي على جوجل، أتصفح أول 3 أو 4 روابط، وأغوص في التفاصيل والاراء المتناقضة. لكن ذلك تغيّر فجأة وبهدوء،منذ أن ظهرت أمامي ميزة AI Summary ذلك المربع الذي يطفو أعلى نتائج البحث، ويقدّم لي ما أريده في بضعة سطور. في البداية، رأيت فيها مجرد إضافة جديدة. لكن شيئًا فشيئًا، بدأت ألاحظ أنني لم أعد
حماية الأطفال من الـChat Bots… مسؤولية الأهل أم الحكومة؟
مع انتشار الـChat Bots في كل مكان، من تطبيقات الدردشة إلى المساعدات الذكية وحتى منصات التعليم، بدأ الجدل حول مدى تأثيرها على الأطفال. بعض هذه البوتات يمكن أن تكون مفيدة، تقدم إجابات سريعة وتساعد في التعلم، لكن ماذا لو قدمت محتوى غير مناسب؟ ماذا لو شجعت ولو بطريقة غير مباشرة على العنف أو تصرفات خطيرة؟ في هذا السياق، يطالب البعض بفرض قوانين صارمة لضبط سلوك الـChat Bots عند التعامل مع الأطفال، بحيث يتم منعها من تقديم أي نوع من المحتوى
الذكاء الاصطناعي والتعليم: المنافسة في العملية التعليمية لم تعد عادلة
الذكاء الاصطناعي في التعليم يبدو وكأنه فرصة ذهبية، لكنه في الواقع يخلق فجوة معرفية جديدة. الطلاب الذين لديهم إمكانية الوصول إلى أدوات مثل ChatGPT يتمكنون من فهم المواد أسرع، والحصول على شروحات مخصصة، وحتى كتابة أبحاث أكثر تطورًا. في المقابل، من لا يملكون هذه الأدوات يواجهون تحديات مضاعفة، ويُتركون في الخلف في سباق تعليمي غير متكافئ. ففي الوقت الذي يمكن فيه للطلاب الذين يمتلكون أجهزة حديثة واتصالًا مستقرًا بالإنترنت، يظل العديد من الطلاب في مناطق أقل حظًا بعيدين عن هذه
OpenAI o1، نموذج ذكاء اصطناعي يفكر "مثل البشر"
منذ ثلاثة أيام، أطلقت OpenAI الغنية عن التعريف نموذج ذكاء اصطناعي جديد يحمل اسم OpenAI o1 والذي على حد وصف الشركة "تم تدريبه ليفكر في حل المشكلة قبل الرد كما يفعل أي شخص"، وهو أمر غير مسبوق في نماذج الذكاء الاصطناعي. النموذج مصمم ليتبع منهجية معينة في التفكير عندما تعرض عليه مشكلة قائمة على تجربة طرق واستراتيجيات مختلفة والتعلم من أخطائه في كل محاولة يفشل فيها، وهو أمر مشابه إلى حد ما للطريقة التي نتبعها في حل المشاكل. ومما أثار
لماذا تسعى كل المتصفحات لسلب أي إرادة للمستخدم؟
قرأت مؤخرا مقال نشر على مدونة XDA developers يحذر من الاعتماد على المتصفحات المدعومة بالذكاء الاصطناعي، خاصة المتصفحات الجديدة التي تحاول أن تجعل تجربة البحث مصممة بالكامل على حسب شخصية واهتمامات المستخدم وتلخص له كل نتائج البحث في اجابة واحدة مختصرة. الفكرة تبدو مريحة في البداية لأن كل شيء يتم ترتيبه حسب رغباتك ويظهر لك المحتوى الذي يهمك ويوافق اهتماماتك فقط وبدون الحاجة للبحث في مصادر مختلفة ومتناقضة أحيانا، لكن المشكلة أن هذا الأسلوب يلغي تقريباً أي فرصة لرؤية أفكار