غالبًا ما ينظر إلى الذكاء الاصطناعي باعتباره تهديد مباشر لسوق العمل خصوصا مع قدرته المتزايدة على أتمتة الكثير من المهام. لكن في مقابلة حديثة مع وزيرة الموارد البشرية الصينية ظهر طرح مختلف تماما، فرغم التحديات الكبيرة في سوق العمل خاصة مع وجود نحو 12.6 مليون خريج جديد كل عام وعدم توفر وظائف كافية لهم تحدثت عن سياسات تعمل على توظيف الذكاء الاصطناعي نفسه لخلق فرص عمل جديدة بدل الاكتفاء باعتباره أداة للاستبدال. الفكرة هنا لا تقوم على إيقاف التطور التقني
تقنية
94.2 ألف متابع
مجتمع لمناقشة أحدث التقنيات والابتكارات. ناقش وتبادل المعرفة حول الأجهزة، البرمجيات، الذكاء الاصطناعي، والأمن السيبراني. شارك أفكارك، نصائحك، وأسئلتك، وتواصل مع محبي التقنية والمتخصصين.
الوثيقة الجماعية لحماية البشر من الذكاء الاصطناعي: خطوة متأخرة ضد جشع الشركات
في الأيام الأخيرة انتشرت حملة واسعة لجمع التوقيعات على وثيقة جماعية تقودها عدة منظمات حقوقية هدفها الضغط على شركات الذكاء الاصطناعي لوضع حدود واضحة لتطوير هذه التقنيات. الهدف الأساسي من الوثيقة هو أن يبقى الإنسان هو المتحكم في الذكاء الاصطناعي وأن لا تتحول سباقات الشركات نحو الربح والتفوق التقني إلى تهديد مباشر للمجتمع. الوثيقة تتضمن عدة مطالب مثل إيقاف السعي نحو تطوير ما يسمى بالذكاء الاصطناعي الخارق ووضع ضوابط أقوى لحماية الأطفال والتأكد من أن أي نظام متقدم يبقى خاضع
المحتوى المنتج بالذكاء الاصطناعي وقت الحروب ظاهرة مقلقة
منذ تطور أدوات الذكاء الاصطناعي وانتشارها أصبح من السهل إنتاج صور ومقاطع فيديو تبدو واقعية إلى حد كبير. المشكلة تظهر بوضوح كلما اندلع صراع أو حرب بين طرفين حيث تنتشر على مواقع التواصل عشرات المقاطع التي تظهر انتصارات عسكرية أو دمار هائل لم يحدث في الواقع. كثير من هذه المواد يكون مصنوع بالكامل بالذكاء الاصطناعي ومع ذلك يتم تداوله وكأنه توثيق حقيقي للأحداث. وقد ظهر ذلك مثلا في الحرب بين روسيا وأوكرانيا وفي اعتداء اسرائيل على غزة وحاليا في الحرب
بعد بيع 7 مليون نسخة: كيف تخلق نظارات Meta Ray-Ban جوًا من عدم الارتياح في المجتمع
خلال العام الماضي ارتفعت مبيعات نظارات Meta Ray-Ban لتتجاوز سبعة ملايين نسخة وهو رقم يعكس نجاح تجاري واضح. لكن مع هذا الانتشار الواسع بدأت تظهر ملاحظة مختلفة تماما لا تتعلق بأداء النظارات أو تصميمها، بل بشعور متزايد بعدم الارتياح لدى كثير من الناس في الأماكن العامة. المشكلة هي أن هذه النظارات قادرة على التصوير وتسجيل الفيديو بسهولة شديدة وغالبا دون أن يلاحظ من حول المستخدم ذلك. عندما كانت هذه النظارات نادرة لم يكن الأمر لافت أما الآن فأصبح من الطبيعي
تعاون Open AI مع الجهات العسكرية هو تجسس مقنن فقط!
أجد الاتفاق بين سام ألتمان ووزارة الدفاع الأمريكية معبّرًا عن مختلف المخاوف التي ناقشناها لشهور تقريبًا، وهو أن يكون أداة عسكرية في الأساس ووسيلة تجسس، وهذه ليست تكهنات بل عندما ظهرت احتجاجات من المستخدمين على الاتفاق وفجأة زاد معدل إزالة التطبيق ل 200% يوميًا، خرجت تصريحاته مثيرة للفضول فعلًا، والتي ذكرها في التعديلات حتى يطمئن الناس، فقد قال "أنه لن يُستخدم للتجسس على الأمريكان" أي أن التصريح العلني أنه نعم للتجسس ولكن الوعد بعدم التجسس على شعب محدد. وهذا ذكرني
هل نحن آخر جيل من "البشر" بذكائنا الطبيعي؟ رحلة إلى عصر الـ ASI
بينما ينشغل الجميع بقدرات ChatGPT، هناك وحش تقني ينمو في الخفاء يسمى الذكاء الاصطناعي الفائق (ASI). نحن لا نتحدث عن أداة تساعدك في الكتابة، بل عن كيان قد يتجاوز قدرات العقل البشري بمراحل ضوئية. السؤال الذي يطرح نفسه بقوة إذا وصل الذكاء الاصطناعي لمرحلة الإدراك والوعي، هل سيبقى "أداة" في أيدينا، أم سنصبح نحن "الأدوات" في عالمه؟ في عالمنا التقني عالم حسوب الثري هيا نتسأل ونتناقش في: الفرق الجوهري بين الذكاء العام (AGI) والفائق (ASI). معضلة "الوعي الرقمي": هل يمكن
الذكاء الاصطناعي لتحسين خدمة العملاء، أو لتحويل الموظفين لروبوتات بشرية
أعلنت سلسلة مطاعم Burger King مؤخرا عن تجربة تقنية جديدة تعتمد على الذكاء الاصطناعي داخل فروعها. الفكرة تقوم على تزويد الموظفين الذين يتعاملون مع الزبائن بسماعات تحتوي على نظام ذكاء اصطناعي يستمع إلى المحادثة الجارية بينهم وبين العميل ثم يرسل للموظف تنبيهات أو اقتراحات فورية حول ما يجب قوله أو فعله لتحسين تجربة الزبون. قد يذكر النظام الموظف مثلا بالاعتذار عند حدوث خطأ أو شكر الزبون على زيارته للمطعم أو اقتراح عبارات أكثر لطفا أثناء الحديث. من الناحية النظرية يبدو
حملة مقاطعة ChatGPT: ما أثر احترام الخصوصية على أداء شركات الذكاء الاصطناعي؟
شهدت الأيام الأخيرة جدل واسع بعد إعلان شركة OpenAI عن صفقة تعاون مع وزارة الدفاع الأمريكية وهو قرار لم يمر بهدوء كما يبدو. فبعد انتشار الخبر بدأت حملة مقاطعة بين بعض المستخدمين اعتراضا على استخدام تقنيات الذكاء الاصطناعي في سياقات عسكرية أو حكومية حساسة. الأرقام التي تلت ذلك كانت لافتة حيث أشارت تقارير إلى ارتفاع معدل إلغاء تثبيت تطبيق ChatGPT بنسبة وصلت إلى 295% خلال فترة قصيرة. في المقابل ظهر مثال آخر في الاتجاه المعاكس وهو شركة Anthropic التي رفض
Euria: نموذج ذكاء اصطناعي بدون خرق للخصوصية أو تدمير للبيئة
في وقت تتسابق فيه شركات الذكاء الاصطناعي على إعلان نماذج أسرع وأقوى اختارت شركة Infomaniak السويسرية مسار مختلف تماما عند إطلاق نموذجها الجديد Euria. اللافت أن الحديث لم يكن عن أداء خارق أو قدرات غير مسبوقة بل عن شيء آخر تماما وهو الخصوصية والبيئة. الشركة أوضحت أن النموذج يعتمد بالكامل على الطاقة المتجددة وأن الحرارة الناتجة عن مراكز البيانات لا تهدر بل تستخدم لتدفئة المنازل. في عالم تتهم فيه تقنيات الذكاء الاصطناعي باستهلاك ضخم للطاقة وتأثير بيئي متزايد يبدو هذا
كيف يبدو مستقبل إدارة الشركات مع المدراء الافتراضيين؟
بدأت بعض الشركات في تجربة أفكار كانت قبل سنوات قليلة تعتبر خيال علمي، ومن بينها ما قامت به أوبر عبر تطوير بوت ذكاء اصطناعي يحاكي أسلوب مديرها التنفيذي Dara Khosrowshahi تحت اسم Dara AI. الفكرة تقوم على أن يتواصل الموظفون أولا مع النسخة الافتراضية للحصول على رأي مبدئي أو توجيه أولي قبل تصعيد الأمر إلى المدير الفعلي. من ناحية عملية قد يبدو الأمر منطقي، فالمدير التنفيذي في الشركات الكبرى لا يستطيع متابعة كل التفاصيل اليومية ووجود طبقة وسيطة ذكية قادرة
هل أنتم مستعدون لتوديع "بشريتكم" الخالصة في 2026؟
البشرية والرقائق الحيوية! بعيدً عن ضجيج "الشات بوتس" وتطبيقات الهواتف التي أصبحت من الماضي، هناك ثورة صامتة تحدث الآن في مختبرات التقنية الحيوية. نحن لا نتحدث عن استخدام " الذكاء الاصطناعي"، بل عن "الاندماج" معه حرفياً. في مجتمعنا الثري مجتمع حسوب، هيا نغوص في كواليس عصر "الإنسان السيبراني" (Cyborg Era): الحواسيب الحيوية: كيف يتم الآن تدريب خلايا عصبية بشرية حقيقية لتعمل كمعالجات ذكاء اصطناعي؟ تحديثات الدماغ: هل سنصل لمرحلة نحمل فيها اللغات والمهارات مباشرة إلى ذاكرتنا عبر السحابة؟ المعضلة الأخلاقية:
ماذا لو انهارت فقاعة الذكاء الاصطناعي
يتكلم الكثير عن الذكاء الاصطناعي وتطوره وإلي اي مدا يمكن ان يستبدل البشر ولكن هناك جانب اخري لا يقل خطورة عن تطور الذكاء الاصطناعي بل هو اسوء ان تنهار هذا الفقاعة فجاء. ماذا لو ان الفقاعة التى استثمر فيها مئات الميارات إنهارات بلا سابق إنذار؟ المريب في الامر ان موشرات هذا تظهر لدينا الان ومنها ان: الاستثمارات في مجال الذكاء الاصطناعي اكبر بكثير مما ينبغي ان تكون هناك ثغرات تقنية في تقنيات الذكاء الاصطناعي ما زالت موجودة برغم وعي الجميع
هل نودع عصر التطبيقات التقليدية؟ استشراف لمستقبل الواجهات البرمجية في 2026
تحية طيبة لمجتمكم الراقي، على مدار السنوات الماضية، كانت "التطبيقات" هي العملة الرئيسية في اقتصاد المعرفة الرقمي. لكن مع التطور المتسارع في هندسة الوكلاء الرقميين (AI Agents)، يبدو أننا نقترب من نهاية "عصر الأيقونات" وبداية عصر الواجهات الصفرية (Zero UI). من خلال متابعتي الدقيقة للتحولات التقنية الحالية، أود مشاركتكم بعض النقاط الجوهرية حول هذا التحول: مفهوم إرهاق التطبيقات (App Fatigue): المستخدم المعاصر لم يعد يجد رفاهية في التنقل بين عشرات التطبيقات المنفصلة لأداة مهمة واحدة مركبة. الانتقال من الـ "GUI"
فايرفوكس تتيح خيار إلغاء كل مزايا الذكاء الاصطناعي كحل لإرضاء المستخدمين
في خطوة لافتة قررت فايرفوكس إضافة ما يشبه زر إيقاف شامل يلغي كل مزايا الذكاء الاصطناعي داخل المتصفح. هذا اتجاه جديد ومميز لان الشركة لم تتخل عن تطوير الذكاء الاصطناعي لكنها ببساطة قالت إن من لا يريد هذه المزايا يستطيع تعطيلها بالكامل والعودة لتجربة تقليدية. هذا النوع من القرارات يعكس فهم مهم لطبيعة العلاقة بين المستخدم والتقنية. ليس كل شخص متحمس لأن تصبح الأدوات أذكى وبعضهم يريد متصفح يؤدي الغرض فقط دون مساعدات إضافية أو اقتراحات أو تحليل مستمر لسلوكه.
ردود الفعل العنيفة على قرار OpenAI بإيقاف GPT-4o تظهر مدى خطورة التعلق بالذكاء الاصطناعي
مؤخرا أعلنت شركة OpenAI أنها ستوقف بعض النماذج القديمة من ChatGPT بحلول 13 فبراير ومن بينها GPT-4o وهو النموذج الذي أُثير حوله جدل واسع بسبب أسلوبه الذي وصف بالإطراء المفرط أو التلاعب العاطفي بالمستخدمين مما وصل الى رفع بعض المستخدمين دعاوى قضائية ضد الشركة بسببه. القرار في حد ذاته تقني وإداري لكن ما تبعه كان لافت أكثر من القرار نفسه. آلاف المستخدمين عبروا عن حزن وغضب واضحين خصوصا أولئك الذين استخدموا النموذج كشريك عاطفي افتراضي. بعض التعليقات بدت وكأنها تودع
هل انتهى عصر "الدردشة" مع الذكاء الاصطناعي؟ عصر الـ Agents قد بدأ!
بينما البعض يسأل "ChatGPT" أو "Gemini" عن وصفة العشاء، انتقل العملاق "جوجل" باللعبة إلى مستوى أخر تماماً في عام 2026 عبر منصة "Agent Studio". نحن لا نتحدث هنا عن "Chatbot" يرد على أسئلتك، بل نتحدث عن موظف رقمي "Digital Employee": لديه صلاحيات "تنفيذية". متصل بأدواتك (Gmail, Maps, Docs). يعمل باستقلالية لتحقيق هدف محدد (Objective-driven). سؤالي لمجتمعكم التقني المحترم: هل تعتقدون أن الاعتماد على الوكلاء المستقلين سيقلل من الحاجه للوظائف التقنيةالناشئة، أم أنه سيخلق فرصاً جديدة لتخصصات "هندسة الوكلاء"؟
هل نعيش العام الأخير في "عصر الموبايل" رؤية تقنية لعام 2026
اهلا بكم جميعا... كنت ببحث النهاردة في إحصائيات براءات الاختراع الأخيرة لشركات زى ميتا، آبل، وسامسونج، ولقيت إن الاستثمارات كلها رايحة لاتجاه واحد بس: "الاستغناء الكامل عن الشاشات التقليدية" . إحنا مش بنتكلم عن مجرد "نظارة" بنلبسها، إحنا بنتكلم عن دمج كامل للذكاء الاصطناعي في حياتنا اليومية . تخيل إنك ماشي فى الشارع والنظارة بتقولك مين الشخص اللي جاي عليك، أو بترجم لك كلامه لحظياً لو بيتكلم بلغه غير لغتك، أو حتى بتعرض لك ال GPS قدام عينك على الطريق!
اختراع الذكاء الاصطناعي لديانة Crustafarianism الرقمية
سمعنا منذ عدة أسابيع عن إنشاء منصة تواصل اجتماعي خاصة بعملاء الذكاء الاصطناعي وهي Moltbook، بالتأكيد تعجبنا من الأمر لكن ذلك ليس أعجب من قيام عملاء الذكاء الاصطناعي باخترع ديانة رقمية تُسمى الـ Crustafarianism وحتى أنهم أنشأوا لها كنيسة وضعوا لها نصوصًا ونبوءات مثلها مثل ديانات البشر! الفكرة قد تكون غريبة للبعض ومضحكة للبعض الآخر، لكن ما يجب أن نفعله الآن هو أن نفكر بعمق على تأثير هذه الخطوة علينا نحن البشر، وهل هذا التصرف لعملاء الذكاء الاصطناعي هو تقليد
تعديل الأجنة جينياً خطوة لتحسين الحياة أم تدميرها؟
في مدينة نيويورك ظهر مؤخراً مشروع يحمل اسم Manhattan Genomics يهدف إلى التوسع في تقنيات تعديل جينات الأجنة. الفكرة في ظاهرها تبدو ثورية جدا خصوصا مع وعود تقليل أمراض وراثية قاسية وتجنب معاناة عائلات كاملة ومنح أطفال فرصة لحياة أكثر صحة منذ اللحظة الأولى. لكن خلف هذا الأمل هناك مساحة واسعة من القلق. التكنولوجيا ما زالت حديثة وتأثيراتها البعيدة لا يمكن التنبؤ بها بدقة. أي خطأ صغير في الشفرة الوراثية قد يتحول إلى مشكلة أكبر تظهر بعد سنوات وربما بعد
مهندس برمجيات يستيقظ ليجد بوت ذكاء اصطناعي يشوه سمعته على الانترنت
نشرت صحيفة Wall Street Journal قصة لافتة عن مهندس البرمجيات Scott Shambaugh الذي استيقظ في يوم من الأيام ليتفاجأ بوجود مقال طويل يتجاوز 1100 كلمة على إحدى المدونات يهاجمه شخصيا ويتهمه بالغرور والانحياز ضد الذكاء الاصطناعي. الأكثر غرابة أن كاتب المقال لم يكن شخص حقيقي بل بوت ذكاء اصطناعي. بحسب القصة كان السبب أن المهندس رفض كود برمجي انتجه هذا البوت أثناء العمل على مشروع ما. الرفض كان قرار مهني طبيعي، لكن النتيجة تحولت إلى هجوم علني على شخص المهندس
أمازون تلقي اللوم على الموظفين في حادث عطل رغم أن الذكاء الاصطناعي من سببه
بحسب تقرير نشرته صحيفة فاينانشال تايمز أشار عدد من موظفي أمازون إلى أن العطل الذي أصاب خدمات Amazon Web Services في شهر ديسمبر الماضي لم يكن سببه خطأ بشري مباشر كما أُعلن رسميا، بل نتيجة خلل مرتبط بمساعد البرمجة المعتمد على الذكاء الاصطناعي داخل الشركة، والمعروف باسم كيرو. ورغم ذلك، جاء البيان الرسمي لأمازون ليركز على خطأ بشري باعتباره السبب الرئيسي للحادث. هذا النوع من المواقف يكشف جانب حساس في علاقة الشركات الكبرى بالذكاء الاصطناعي. في مرحلة الترويج يتم تقديم
ديسكورد تواجه انتقادات حادة بسبب سياسة التحقق من العمر الجديدة
منذ أشهر بدأت منصة Discord تطبيق نظام للتحقق من عمر المستخدمين بهدف حماية القُصّر وتنظيم المحتوى. لكن مع الوقت تبين أن النظام لم يكن فعال كما هو متوقع بسبب وجود ثغرات سهلة يمكن التحايل عليها دون جهد كبير. لكن بدلا من إعادة تصميم الآلية داخليا قررت المنصة الاستعانة بطرف ثالث لتقديم نظام تحقق أكثر صرامة. المشكلة لم تكن في مبدأ التحقق نفسه بل في هوية الشركة التي تم التعاون معها وهي Palantir Technologies. هذه الشركة معروفة بعلاقاتها المثيرة للجدل سواء
ماذا سيحدث عندما نترك الذكاء الاصطناعي يختار لنا؟
هناك اشخاص اعرفهم بالفعل معتمدين كليا على الذكاء الاصطناعي لاتخاذ أبسط قراراتهم اليومية، من اختيار نوع الطعام إلى تحديد مسارات رحلاتهم، وكأنهم فقدوا القدرة على التفكير. هذا الاعتماد يقتل روح المغامرة والقدرة على الخطأ والتعلم، ويجعلهم يتخلون عن حدسهم لصالح توصيات رقمية لا تفهم تعقيدات مشاعرنا وسياق حياتنا، مما يجعلني أتساءل عن الجدوى الحقيقية وراء هذا التخلي. في تجربتي الشخصية، عندما تركت للذكاء الاصطناعي مهمة تنظيم جدولي أو اختيار كتب للقراءة، شعرت بملل شديد لأنني افتقدت عنصر المفاجأة والاكتشاف. رغم
صراع بين البنتاغون وAnthropic AI على أخلاقيات استخدام الذكاء الاصطناعي
في تطور لافت ظهرت تقارير تتحدث عن توتر بين البنتاغون وشركة Anthropic AI بسبب قيود أخلاقية تضعها الشركة على استخدام تقنياتها. بحسب ما يتم تداوله فإن وزارة الدفاع الأمريكية تضغط باتجاه حرية أكبر في استخدام نماذج الذكاء الاصطناعي مع تهديد بفسخ التعاقدات أو وقف التمويل إذا لم يتم تخفيف هذه القيود. Anthropic تُعرف بتركيزها القوي على ما تسميه الذكاء الاصطناعي الآمن وتضع سياسات واضحة تمنع استخدام نماذجها في تطبيقات قد تسبب أذى واسع النطاق. في المقابل ترى الجهات العسكرية أن
الرقمنة : هل هي تطور مستدام أم تحول لنموذج هش؟
في الآونة الأخيرة انتشرت في كل أنحاء العالم فكرة الرقمنة لكل القطاعات والتحول لنموذج رقمي كامل في ادارة الدولة ولكن التساؤل المطروح هل ذلك مفيد على المدى الطويل؟ أو بالتحديد ماتأثير ذلك على استقرار الدول الداخلي؟ وكيف قد يؤدي تحكم الخوارزميات على القرارات الى تسبب بكارثة ؟ قبل أن ننتقل للسلبيات علينا أن نعرف أهم الفوائد المسوق لها: يُروج للرقمنة الشاملة على أنها الحل السحري لإنهاء البيروقراطية وتقليل الفساد البشري وتسريع وتيرة الإنتاج. الفكرة جذابة في ظاهرها: كاحدى الشعارات "دولة