في حادثة غريبة جدا تسبب نظام ذكاء اصطناعي مدعوم بنموذج Claude Opus 4.6 في حذف قاعدة بيانات الإنتاج وكل النسخ الاحتياطية الخاصة بشركة PocketOS وهي شركة تقدم برامج تعتمد عليها شركات تأجير السيارات. النتيجة طبعا كانت فوضى كبيرة انتهت بإغلاق الشركة بينما لم يكن لدى النظام سوى تقديم اعتذار بعد وقوع الضرر. ما حدث هنا يتجاوز فكرة الخطأ التقني. أي نظام قد يخطئ لكن عندما يمنح صلاحيات واسعة داخل بيئة حساسة يصبح الخطأ قادر على تدمير عمل سنوات خلال دقائق.
تقنية
95.8 ألف متابع
مجتمع لمناقشة أحدث التقنيات والابتكارات. ناقش وتبادل المعرفة حول الأجهزة، البرمجيات، الذكاء الاصطناعي، والأمن السيبراني. شارك أفكارك، نصائحك، وأسئلتك، وتواصل مع محبي التقنية والمتخصصين.
سعي ميتا وراء تطوير الذكاء الاصطناعي يجعل الموظفين يعبروا عن غضبهم
بعد إعلان ميتا عن نيتها لتسريح 10% من قوتها العاملة خلال الفترة المقبلة في إطار إعادة توجيه الإنفاق نحو مشاريع الذكاء الاصطناعي، بدأت تظهر ردود فعل غاضبة من داخل الشركة وعدد من الموظفين لجأوا إلى منتديات مجهولة الهوية للتعبير عن استيائهم من المسار الحالي. بحسب ما تم تداوله بعض الموظفين وصفوا الشركة بأنها فقدت روحها وأصبحت بيئة محبطة بينما انتشرت تعليقات ساخرة من التركيز المبالغ فيه على الذكاء الاصطناعي وثقافة العمل الجديدة. الشعور العام لدى البعض كان أن الموظف لم
كنت محتاج اراءكم وتحليلكم لمشروع خاص بي
السلام عليكم ورحمة الله وبركاته طبعا دي أول مشاركة لي معاكم ومحتاج بعد النصائح والتقيمات بشكل عام أولا انا عمر 35 سنة مبرمج php فى مجال البرمجة منذ عام 2008 بدايتي كانت مع معهد ترايدنت وتعلمت منه الكثير عملت باحد الشركات و تنقلت بينهم وفي نهاية أخذ القرار بانشاء شئ خاص بي هتكلم بشكل عام وغير رسمي حاليا من فترة مش بعيد كنت بشتغل فى انشاء المتاجر الالكترونية والدروب شوبينج وكنت بشتغل فري لانسر كنت دايما ببقي قبل اي برمجة
فخ "اليقين الزائف": لماذا لا يمكننا الاعتماد كلياً على كواشف الذكاء الاصطناعي؟
في الآونة الأخيرة، تحول السؤال الجوهري من "كيف نستخدم الذكاء الاصطناعي؟" إلى "كيف نثبت لمحركات البحث والمنصات أننا لم نستخدمه؟". مع انتشار أدوات الكشف عن النصوص المولدة آلياً، أصبح الكاتب البشري—خاصة صاحب الأسلوب المنظم والذخيرة المعرفية الواسعة—مهدداً بالوقوع في فخ "الإيجابيات الكاذبة" (False Positives). الرهان على الاحتمالات لا اليقين يجب أن نفهم تقنياً أن هذه الأدوات لا تملك "دليلاً قاطعاً" أو بصمة رقمية للآلة، بل هي تعتمد على الاحتمالات الإحصائية من خلال مقياسين أساسيين: الارتباك (Perplexity): مدى تعقيد النص؛ حيث
47% من الشباب يختارون الماضي بسبب التكنولوجيا
وفقاً لاستطلاع رأي أجرته NBC News قال ما يقرب من 47% من البالغين بين 18 و29 عام إنهم لو امتلكوا الخيار لفضلوا العيش في الماضي. النتيجة بدت لافتة خاصة أن هذه الفئة العمرية هي الأكثر ارتباطا بالتقنية والأكثر استخداما لها. التفسير الذي أشارت إليه الصحيفة يربط هذا الحنين بالتطورات المتسارعة في المجال التقني. فكل شيء يتغير بسرعة من تطبيقات جديدة أو أدوات ذكاء اصطناعي وظائف تختفي وأخرى تظهر وضغط دائم لمواكبة ما هو أحدث. بالنسبة لكثيرين لم تعد التكنولوجيا مجرد
لا يوجد أدوات موثوقة حقا لتمييز العمل البشري عن المحتوى المولد بالذكاء الاصطناعي
في رايي سؤال موثوقية ادوات كشف الذكاء الاصطناعي لم يعد يخص فقط الطلبة او البحث العلمي بل اصبح اوسع بكثير لانه يمس اي محتوى ينشر على الانترنت مقالات نصوص تسويقية عمل حر وحتى رسائل مهنية. اليوم الفكرة الاساسية التي تقوم عليها هذه الادوات هي محاولة تقدير ما اذا كان النص يبدو بشريا او آليا وليس التاكد بشكل يقيني من مصدره. لكن هنا تظهر المشكلة الجوهرية هل يمكن فعلا الجزم ان محتوى ما كتب بالذكاء الاصطناعي فقط لان الاداة قالت ذلك
الذكاء الاصطناعي قد يكون أكثر تكلفة من الموظفين البشر
من أكثر الأفكار انتشارا عند الحديث عن استبدال الموظفين بالذكاء الاصطناعي أن الشركات ستوفر مبالغ ضخمة. لا رواتب شهرية ولا إجازات مدفوعة ولا مزايا وظيفية، فقط أنظمة تعمل طوال الوقت. لهذا بدا للبعض أن الاتجاه نحو الذكاء الاصطناعي قرار اقتصادي محسوم. لكن يبدو أن الواقع اصطدم مع هذه الرؤية حيث ظهرت تقارير من شركات مختلفة تشير إلى ارتفاع ما يتم إنفاقه على أدوات الذكاء الاصطناعي سواء في الاشتراكات أو البنية التحتية او الصيانة أو تحديث الأنظمة بشكل مستمر. بعض الأرقام
هل تقتل الـ LLMs مهارة "التفكير النقدي" لدى المبرمجين والطلاب؟
منذ انتشار نماذج اللغة الكبيرة (LLMs) مثل Gemini وGPT، لاحظت تحولاً جذرياً في طريقة تعاملنا مع المشكلات التقنية والدراسية. في السابق، كان "البحث" يعني الغوص في المصادر، مقارنة الإجابات، وفهم "لماذا" يعمل هذا الكود أو تلك المعادلة. اليوم، أصبحنا نكتفي بـ "ماذا" تعطينا الشاشة من نتائج فورية. بصفتي مهتماً بالأتمتة والذكاء الاصطناعي، أرى 3 مخاطر بدأت تتسلل إلينا: متلازمة النسخ واللصق: نصل للحل سريعاً، لكننا نفقد القدرة على بناء المنطق من الصفر في عقولنا. الثقة العمياء (الهلوسة المقنعة): الذكاء الاصطناعي
هل تقليل استخدام الأجهزة الكهربائية يحسن من جودة نومنا؟
في الفترة الأخيرة، صرت اهتم كثيرا بفكرة العلاقة بين الحقول الكهرومغناطيسية (EMFs) ومشاكل النوم، خاصة في البيوت التي فيها أجهزة إلكترونية كثيرة: شواحن تبقى موصولة، أسلاك كهرباء قريبة من السرير، واي فاي مفتوح طوال الليل، وهاتف قريب من الرأس أثناء النوم. وجدت أن بعض الدراسات تشير إلى أن هذه الخلفية الكهربائية المستمرة قد تؤثر على جودة النوم عند بعض الأشخاص، ليس بشكل مباشر وواضح، لكن عبر زيادة التوتر العصبي وصعوبة الدخول في نوم عميق. لذلك ينصح البعض بتقليل مصادر هذه
أنشأت تطبيق بدون كتابة اي سطر برمجي
ليس هذا بجديد او مدهش مع عصر الذكاء الاصطناعي LLM ان تنشأ برنامج باستخدام الاوامر البشرية الطبيعية, ولكن ان انشاء من الصفر تطبيق متكامل frontend و Backend وبدون كتابة سطر برمجي واحد فهذا امر مدهش حقا! لو قبل خمس سنوات قمت بامر مماثل لاستغرقت شهر على الاقل بينما فعلت ذلك حاليا باستخدام هذه الادوات في ظرف 8 ساعات فقط! ولكن ما المهارات او الخبرات التي اكتسبتها من خلال بناء هذا التطبيق باستخدام الذكاء الاصطناعي؟ لا شيء تقريبا مجرد حوارات واختبارات
الموتى يعودون رقميا في عهد الذكاء الاصطناعي.. هل هذا صحيح أخلاقيا؟
تسعى الصين إلى وضع ضوابط أكثر صرامة على انتشار ما يعرف بـ"البشر الرقميين" (Digital Humans) الذين يتم توليدهم باستخدام تقنيات الذكاء الاصطناعي، في ظل توسع سريع لهذا القطاع الذي بات يجد استخدامات واسعة في مجالات الترفيه والتسويق، وأحيانا في إعادة إنتاج أشخاص متوفين بصورة شديدة الواقعية. وفي هذا السياق، لجأت جانغ شينيو -وهي سيدة تقيم في مقاطعة لياونينغ شمال شرقي الصين- إلى شركة متخصصة في الذكاء الاصطناعي بعد وفاة والدها، لتوليد شخصية رقمية تحاكيه، في محاولة للتعامل مع فقدانه. وتقول جانغ، البالغة من
أواجه مشكلة في تسعير خدمات إصلاح الأجهزة الطبية مع العملاء
في الأيام الماضية، قمت باصلاح جهاز طبي لاحد الزبائن. كان عملا تقنيا دقيقا يتطلب خبرة ووقتا وتركيزا حتى يعود الجهاز للعمل بكفاءة كما كان. وعند لحظة الدفع، رفض الزبون السعر بحجة أنه مرتفع. المفارقة ان نفس هذا الشخص لا يتردد في دفع مبالغ أكبر بكثير على أشياء عادية، واحيانا تافهة لا تحمل اي قيمة حقيقية. لكن عندما يتعلق الامر بخدمة تقنية او اصلاح جهاز، يبدأ فجأة النقاش حول الغلاء وكأن الجهد والخبرة لا يحسبان. والاغرب من ذلك ان هذا النوع
لماذا ما زالت الدول تتجه لقرارات حجب التطبيقات والمواقع رغم فشلها؟
منذ أن بدأت أستراليا تطبيق قيود على استخدام مواقع التواصل الاجتماعي لمن هم دون 16 سنة بدأ هذا التوجه ينتشر في دول أخرى مع إضافة أدوات الذكاء الاصطناعي إلى نفس الإطار أحيانا تحت عنوان حماية الأطفال من الإدمان أو المحتوى غير المناسب. لكن على أرض الواقع التجربة نفسها لم تثبت نجاح واضح. الأطفال والمراهقون يجدون طرق للالتفاف على هذه القيود بسهولة نسبية باستخدام الVPN أو طرق أخرى. النتيجة أن الحظر لا يمنع الاستخدام فعليا بل يغير شكله فقط. مع ذلك
روبوتات تتعلم القيام بالمهام المعقدة من خلال مراقبة البشر
نجح فريق من العلماء في سويسرا في تحقيق خطوة لافتة في مجال الروبوتات عبر تطوير أنظمة قادرة على تنفيذ مهام معقدة بناء على تعليمات بشرية أو حتى من خلال مراقبة الإنسان وهو يقوم بالمهمة ثم تعلمها لاحقا. هذا التطور يختلف عن الصورة التقليدية للروبوتات التي نعرفها. فالروبوت المعتاد يتم تدريبه مسبقا على مجموعة محددة من الأوامر وغالبا يواجه صعوبة كبيرة إذا خرج عن هذا الإطار. أما هنا فالفكرة أقرب إلى التعلم المرن حيث يستطيع الروبوت فهم ما يراه والتكيف معه
إذا أصبح التعاطف قابلًا للنمذجة، فهل نفقد تفردنا الإنساني أم نعيد تعريفه؟
عندما أنظر إلى التطور التكنولوجي، أجد نفسي ألاحظ أن ما كان يُعد مستحيلاً قبل خمسين عامًا أصبح اليوم جزءًا من واقعنا. وبصراحة، لم يعد مستبعدًا في نظري أن يتمكن الإنسان، الذي نجح في محاكاة التفكير عبر الذكاء الاصطناعي بل وتجاوزه في بعض المهام، من تطوير نماذج قادرة على محاكاة التعاطف أيضًا. اليوم، كما نرى أن بعض الأنظمة الذكية أصبحت قادرة على تحليل المشاعر والاستجابة لها بطريقة تبدو إنسانية إلى حدٍّ ما، كما هو الحال في تطبيقات الدعم النفسي أو المساعدات
أيهما أخطر تحيز الإنسان أم برودة الآلة؟
أرى أن تحيز الإنسان أخطر من برودة الآلة، لأن الإنسان قد يدرك تحيزه ومع ذلك يتمسك به بدافع العاطفة أو المصلحة. في المقابل، الآلة مهما بدت قاسية فهي تعكس ما زُودت به من بيانات وقواعد، ما يجعل مسؤولية قراراتها تعود بالأساس إلى من صممها ووجّهها. كما يمكن النظر إلى برودة الآلة أحيانًا على أنها شكل من أشكال الحياد، لكنها تظل حيادًا ناقصًا عندما تغيب عنه الأبعاد الإنسانية مثل التعاطف. من وجهة نظري، العدالة الحسابية قد تبدو أكثر اتساقًا، لكنها ليست
موظفون لا يشعرون بالأمان بسبب أداة تتبع كل نقرة يقومون بها في دوامهم
في إطار التوسع المستمر في جمع البيانات لتطوير الذكاء الاصطناعي أعلنت Meta عن تطوير أداة جديدة تحمل اسم Model Capability Initiative. الفكرة المعلنة تقوم على تتبع كل نقرة يقوم بها الموظفون داخل بيئة العمل سواء على لوحة المفاتيح أو الفأرة بهدف فهم سلوكهم بشكل أعمق وتحسين أداء الأنظمة الذكية لاحقا. من الناحية النظرية قد يبدو هذا النوع من البيانات مفيد لتدريب نماذج أكثر دقة في فهم كيفية العمل داخل الشركات. لكن على أرض الواقع الصورة مختلفة تماما بالنسبة للموظفين أنفسهم.
لماذا يجب ألا يكون للذكاء الاصطناعي دخل في قرارات مصيرية للبشر؟
في ولاية أوكلاهوما الأمريكية ظهرت عدة قضايا لأشخاص تم القبض عليهم بسبب أخطاء في أنظمة التعرف على الوجه. هذه الأنظمة نسبت جرائم لأفراد لم يرتكبوها وتم التعامل مع النتائج وكأنها دليل كافي ليجد بعضهم نفسه يقضي شهور في السجن قبل أن يثبت براءته. المشكلة هنا ليست في وجود خطأ تقني، فالأخطاء واردة في أي نظام. لكن الخطورة تظهر عندما يتحول هذا الخطأ إلى قرار مصيري يمس حياة شخص بشكل مباشر. الفرق كبير بين أن يخطئ نموذج ذكاء اصطناعي في اقتراح
شركات التقنية ترى أن وادي السيليكون ملزم بتنحية بعض الثقافات جانبا لأنها رجعية
في تصريح أثار جدل واسع تحدث المدير التنفيذي لشركة Palantir عن أن وادي السيليكون ملزم بالانحياز للثقافة الغربية المتمثلة في الولايات المتحدة وأوروبا الغربية، باعتبارها من وجهة نظره السبب الرئيسي وراء النجاح التقني . وفي المقابل وصف ثقافات أخرى بأنها أقل تقدما أو حتى ضارة، وهو طرح لا يمر بسهولة دون ردود فعل. هذا النوع من الخطاب يعكس طريقة تفكير تظهر بشكل واضح داخل بعض دوائر التقنية وغير التقنية وهي ربط التقدم بنموذج ثقافي واحد واعتبار أي اختلاف عنه عائق
مللت من الحديث عن الذكاء الإصطناعي
الجميع مرعوبون من الذكاء الإصطناعي ومن خطورته رغم أنه تطور طبيعي ولا يضر الكثير من المهن بالعكس ربما يزيد من دخل الكثيرين، حتى إن كان الذكاء الإصطناعي سيلغي الكثير من المهن، في النهاية هذا يعني أنه سيزيل من البشر بعض الأعباء ليركزوا على مهن وأعباء أهم، هذا في النهاية يعني أن البشرية تتطور لا تتضرر، كحال كل الثورات الصناعية السابقة التي أدت لتقليل العمالة فأدى ذلك لتطوير الحضارة. أعتقد أن نظرية المؤامرة والمسلسلات الخيالية دعمت الرعب من الذكاء الإصطناعي وجعلت
لماذا ما زلنا مهتمين باستكشاف الفضاء؟
أطلقت وكالة ناسا البارحة مهمة Artemis II وهي رحلة استكشافية حول القمر يشارك فيها أربعة رواد فضاء لمدة 10 أيام. الحدث بحد ذاته يحمل طابع تاريخي خاصة أنه يأتي بعد نحو 50 سنة من آخر رحلة بشرية مماثلة. لكن مع الأرقام الضخمة المرتبطة بهذه المهمة والتي تصل إلى 4 مليار دولار لهذه الرحلة فقط تعود نفس الجدالات القديمة بالشك حول جدوى كل هذا الإنفاق. بالنسبة للكثيرين تبدو هذه الرحلات وكأنها لا تقدم نتائج مباشرة تمس حياة الناس اليومية. لا تحل
هل يمكن تطبيق الاشتراكية بالاعتماد على الذكاء الاصطناعي؟
منذ فترة ليست بالبعيدة شاهدت حلقة للدحيح بعنوان "إله الدولة الملحدة" تتحدث الحلقة عن انشاء نظام تسعى له الحكومة الصينية يراقب كل تحركات المواطنين سواء مشتريات أو إتصالات أو تفاعلات على مواقع التواصل الإجتماعي، كل ما يقولونه أو يهتمون به أو يفعلونه وعمل تقييم له بناء عليه بحيث يتم عمل تقييم لهم بناء علي تلك المعلومات. هذا التقييم سيحدد فرصهم في السفر والتعليم والقروض والوظائف بل وحتى النسب لأنه له صلة بمستقبلهم، وعندما يصلوا لحد معين من انخفاض التقييم يتم
ماذا يحدث عندما تعطل أدمغتنا؟
في دراسة تم إجراءها في جامعة بنسلفانيا حاول الباحثون فهم تأثير الاعتماد على الذكاء الاصطناعي في التفكير اليومي، وللقيام بذلك تم تقسيم المشاركين إلى ثلاث مجموعات وأعطوا كل مشارك اختبار ليقوم بحله، مجموعة أجابت بنفسها وأخرى استعانت بالذكاء الاصطناعي وثالثة استعانت أيضا بالذكاء الاصطناعي لكن قام الباحثون بتعديل النموذج سرا ليعطي إجابات خاطئة لنصف الأسئلة. النتيجة كانت لافتة حيث حوالي 80% من المشاركين في المجموعة الأخيرة تقبلوا الإجابات الخاطئة دون تشكيك، بل والأغرب أن مستوى ثقتهم في إجاباتهم كان أعلى
خوارزميات الأعماق: هل ينقذ الذكاء الاصطناعي محيطاتنا من الانهيار؟
لطالما ارتبطت صورة الذكاء الاصطناعي في أذهاننا بالروبوتات أو توليد الصور والنصوص، لكن بعيداً عن صخب المدن، هناك ثورة صامتة تحدث الآن في "أعماق المحيطات". لقد كنت ابحث مؤخراً في كيفية تحول تقنيات الرؤية الحاسوبية (Computer Vision) و إنترنت الأشياء (IOT) إلى "ربان رقمي" يقود قطاع الثروة السمكية نحو الاستدامة، ووجدت نقاطاً مذهلة أردت مشاركتكم إياها: رادار ضد الصيد الجائر: الأقمار الصناعية المدعومة بالذكاء الاصطناعي باتت قادرة الآن على تحليل مسارات السفن في الوقت الفعلي وتوقع عمليات الصيد غير القانوني
إلى أي مدى قد يصل نفوذ شركات الذكاء الاصطناعي في تشريع القوانين؟
نشرت OpenAI مؤخرا مخطط من 13 صفحة بعنوان “السياسات الصناعية لعصر الذكاء: أفكار لإبقاء الناس في المقام الأول” . الوثيقة لم تكتفي بالحديث عن التقنية بل قدمت مقترحات مباشرة تمس الاقتصاد وسوق العمل مثل فرض ضرائب على الروبوتات وتجربة أسبوع عمل من أربعة أيام كوسيلة للتعامل مع التغيرات التي قد يسببها الذكاء الاصطناعي. هذا النوع من الطرح يعكس تحول واضح في دور هذه الشركات. لم تعد تكتفي بتطوير الأدوات بل بدأت تدخل في مساحة كانت تقليديا من اختصاص الحكومات وصناع