شخصيا ليس لدي مشكلة في فكرة جمع البيانات نفسها بقدر ما أن المشكلة في الجهة التي تقوم به. فكون هذه البيانات في يد شركة لديها هذا النوع من العلاقات يجعل البيانات في خطر حقيقي وليس فقط لاستخدامها في الدعاية وتزويد المعلنين ببيانات عن المستخدمين ولكن قد يكون الأمر أخطر بكثير
تقنية
93.9 ألف متابع
مجتمع لمناقشة أحدث التقنيات والابتكارات. ناقش وتبادل المعرفة حول الأجهزة، البرمجيات، الذكاء الاصطناعي، والأمن السيبراني. شارك أفكارك، نصائحك، وأسئلتك، وتواصل مع محبي التقنية والمتخصصين.
ما وجه الخطورة، الشركة تتعامل مع المؤسسات الامريكية للحد من الهجرة؟، حسناً، ما المشكلة في ذلك؟، مؤسسها تم ذكر اسمه مع ابستين في مواضع؟، حسنا ما المشكلة؟ هل كل من تعامل مع إبستين أصبح جاسوساً أو قاتلاً أو أو، وثائق إبستين لم تترك أسماً في العالم لم تذكره، لا لأنهم جميعاً شركاء له في جرائمه، وإنما لأنه جاسوس يجمع المعلومات عن الجميع، وله علاقات بكثير من الشخصيات البارزة مما يسهل له التواصل مع شخصيات أكثر، وليسوا جميعاً يعرفون بنشاطاته الإجرامية،
"مع كامل الاحترام للجميع، إلا أن المقارنة بين 'الثورة الصناعية' وعصر 'الوكلاء المستقلين' هي مقارنة قاصرة وتفتقر للواقعية التقنية التي نعيشها اليوم في 2026. لماذا لا يقاس الماضي على الحاضر؟ في الثورات السابقة، كانت الآلة 'أداة عمياء' تحتاج لمن يوجهها، فخلقت وظائف لمن يديرها. أما اليوم، فنحن نصمم 'بديلًا ذكيًا' (Agent) لا يحتاج لمدير، بل يمتلك صلاحيات تنفيذية وقدرة على التعلم الذاتي تفوق سرعة البشر بمراحل. نحن لا نصنع 'مطرقة' جديدة، نحن نصنع 'حدادًا' رقميًا! مجزرة المهارات وليس الروتين: الحديث
تحية طيبة لك. قرءة نقدية شديدة العمق وتلمس واحداً من أكثر الهواجس إلحاحا في الأوساط الأكاديمية والتقنية اليوم. أنت محق تماماً في أن المقارنة الكلاسيكية بالثورة الصناعية (الميكنة) قد تكون قاصرة، لأننا لأول مرة لا نستبدل "العضلة" بل "العقل" وبسرعة تعلم تتجاوز المنحني البشري بمراحل. ومع ذلك، اسمح لي أن أطرح زاوية اخرى للنقاش من منظور "اقتصاد المهام لا الوظائف" (Task-based Economy). ما يحدث الآن وهو ما يفسر تسريحات كبار المبرمجين هو أن الوكلاء التهموا المهام النمطية أو حتى المعقدة
من الطبيعي أن نقلق عندما نسمع حديث عن استبدال الوظائف أو إعادة تشكيل سوق العمل بالكامل. هذه ليست فكرة عابرة بل تحول اقتصادي واجتماعي عميق. لكن في الوقت نفسه تاريخ التكنولوجيا يُظهر أن كل ثورة صناعية أزاحت وظائف وخلقت أخرى. الخطر ليس في وجود النية لتطوير التقنية بل في غياب السياسات العادلة التي تحمي الناس أثناء التحول. المشكلة إذا ليست في الذكاء الاصطناعي وحده بل في طريقة إدارة انتقال المجتمع نحوه.
غياب السياسات العادلة التي تحمي الناس أثناء التحول في التاريخ نفسه لم تحمي أي ثورة جديدة حقوق الناس أثناء التحوّل، الثورة الصناعية نفسها كانت لزيادة الإنتاج وتخفيض العمالة وزيادة الاستهلاك، من الطبيعي مع التكيّف في العقود اللاحقة أن تظهر مجالات عمل جديدة، لكن من يعيش عصر الثورة نفسها هو من يدفع ضريبة التحوّل اللاحق.
نقطة جوهرية ومهمة جداً الأمان هو العقبة الأكبر فعلاً. لكن في عام 2026، لم يعد الاعتماد على النماذج العامة (Public Models) هو الحل الوحيد، التوجه الآن نحو النماذج المحلية (Local AI) التي تعمل على أجهزتنا الخاصة دون الحاجة لرفع البيانات للسحابة، أو استخدام تقنيات الـ "Zero-Knowledge Proof). الخصوصية هي التي ستحدد أى الشركات ستنجح في كسب ثقة المستخدم مستقبلاً. شكراً جزيلا للفت نظرنا لهذه النقطة الحساسة
خصوصا بعد الفضائح الأخيرة التي كشفت لنا أن العالم يحكمه مجموعة من عديمي الأخلاق. اعتقد ان هذا يضعنا أمام مشكلة كبيرة وهي أننا لم نعد نعرف ما هي الجهة الموثوقة التي يمكن أن تضع قوانين ومعايير تحكم مثل هذه التطورات التكنولوجية وكيف نضمن أنه سيتم العمل وفقا لها، فقد أثبتت التجربة ان القوانين لا تسري سوى على الضعفاء والعوام أما العمالقة فلا سلطة عليهم للأسف
هاذا النوع من أنظمة الذكاء الاصطناعي يطلق عليه "وكيل - Agent" وهو مختلف عن روبوتات الدردشه (ChatGPT, Gemini,…etc) وتكون لديه صلاحيات واسعه على بيئة العمل أو الجهاز الشخصي يمنحها إياه المستخدم بنفسه. يستطيع الوكيل أن يقوم بالنشر أو التعديل أو الحذف أو التحميل أو النقل أو العبث في الاعدادات والملفات بكامل الحريه.
الذكاء الاصطناعي قد يبرع في الحسابات، لكن صاحب العمل لا يريد أرقام، بل يبحث عن اهم صفة تميز محلل البيانات وهي سرد القصة ليوضح كيف تخدم هذه البيانات أهداف البيزنس.هناك مهارات تظل حكر على البشر مثل التفكير النقدي، وفهم سياق السوق، والقدرة على الإقناع، وهي أمور لا تستوعبها أدوات الai مهما تطورت.لذا اظن ان محلل البيانات لن يستبدل بل سيتطور ليصبح قادر على الاستفادة من هذه الادوات لتزيد من انتاجيته اضعاف.
اتفق معك تماماً استاذ محمد. الذكاء الاصطناعي هو "المحرك" لكن المحلل هو "القائد" . الأدوات مهما تطورت ستظل تفتقر إلي الوعي بالسياق (Contextual Awareness) والقدرة على ربط الأرقام بأهداف البيزنس الأستراتيجية بلمسة إنسانية مقنعة. المحلل الذكي اليوم هو من يستخدم الـ AI ليتفرغ لمهمته الأسمى وهي "Storytelling" وتحويل البيانات إلى قرارات قابلة للتنفيذ، وليس مجرد حساب معاملات شكراً جزيلا لهذا النقاش الثري
أفهم منطقك لكنني أرى أن القياس على تدخلات طبية سابقة ليس دقيقا تماما. اللقاحات أو أطفال الأنابيب لا تغير جوهر الشيفرة الوراثية للإنسان بينما تعديل الأجنة قد يفتح باب لا يمكن إغلاقه بسهولة. الحديث عن ضوابط صارمة جميل نظريا لكن التجربة البشرية تظهر أن ما يمكن فعله تقنيا غالبا يتم فعله ولو بطرق ملتوية. الخوف هنا ليس من العلم بل من الإنسان نفسه ومن شهيته للتميز والتفوق مهما كان الثمن
اظن ان كل تدخل طبي جديد قابل نفس التخوفات في بدايته لانه يكون غير مفهوم وغير واضح او لانه مازال بلا قوانين وقواعد واضحة. اما بالنسبة للمخالفات فهي موجودة بطرق غير شرعية في شتي الاحوال شئنا ام ابينا بسبب اطباء معدومي الضمير، يقومون بعمل الاجراءات الممنوعة او العمليات المحظورة، فهؤلاء في كل الاحوال لن يهمهم لا قواعد ولا ضوابط مثل بالضبط عمليات التجميل التي شوهت ربع نساء الكوكب مثلا، وخذ في اعتبارك ايضا ان الغرب الذي يصدر اغلب كل الابحاث
المقصد من كلامي ان الai ما هو إلا أداة لمحاكاة الأنماط يحتاج فقط لسياق إبتدائي وهو هيكمل مع نفسه بناء على تجارب الناس والبيانات اللي اتغذى بيها. فالأقرب في هذا الموقف ان يكون احد الأشخاص قد طرح فكرة ديانة جديدة وترك الباقي للai بالتأكيد سيقوم باكمال الفكرة وضبطها ووضعها في سياق مناسب بناء علي معرفته السابقة بالديانات الأخرى والتجارب التي مرت بها وهذا ما يظهر هنا في هذا المثال بأنه يوجد تشابه كبير جدا بين ما قام به الai وبين
نعم... تتمثل بالفعل منجما! من المحادثات البشرية وهذه البيانات كما يقول! هي ضرورية لتطوير خوارزميات الذكاء الاصطناعي للمنصة فهي تحتوي على ملايين الرسائل النصية والصور والفيديوهات التي يتم مشاركتها يوميا.. كمية هائلة من البيانات آلتي يمكن استخدامها لتدريب نماذج الدكاء الاصطناعي في مجالات منهآ تحليل الغة الطبيعية والتعرف على الصور............ ولكن يجب على X أن تكون شفافة بشأن كيقية استخدام البيانات... أتحدث بخصوص ردك .. ومع ذلك أبدي تحفظي اتجاه بعض الأفعال التي تقوم بها.. اx.. غير مقبولة وتتعارض مع القيم
غير مقبولة وتتعارض مع القيم التي نعتقدبها. للأسف أصبح الآن هوس معظم الشركات هو البحث عن المنافسة والتطوير للاستمرار في السوق وخصوصا في مجالات ال ai. واكبر داعم لهذا المجال هو كمية البيانات فكلما زادت كمية البيانات معناها زيادة الجودة وزيادة الميزات التنافسية وبالتالي زيادة الأرباح. كل هذا يضغط على الجانب الأخلاقي لمعظم الشركات فكل ما يهم بالنسبة لهم هو جني الأموال بغض النظر عن الجوانب الأخرى.
لكن البيتكوين أولا لا يتم إنتاجه أو طباعته بأستمرار، هو يتوقف عند عدد معين لا يمكن ان يزيد بعده، ثم المبلغ المتداول فيه الأن يتجاوز ال تريليون دولار، وهذا الرقم الجبار يعني أن الأمر ليس بيد مجموعة مستثمرين، بل فيه 6% من البشر على الكوكب، وهذا العدد قابل للتزايد بأستمرار، بل يتزايد فعلاً، وكلما أزداد كلما أشتدت قوة البيتكوين وأزداد سعره، نعم قد يكون الأن عرضة للتزايد والنقصان وهذه التوترات بسبب عدم دخول العدد الكافي فيه بعد، لكنه أثبت أنه
في الحقيقة حسب بحثي الآن اغلب الزيادة والشراء أي النسبة الكبرى تتم من قبل مؤسسات كبرى ودول خصوصا مع توجه من دول لجعله احتياطي رسمي أي أن مع الوقت العملة ستتحول الى ساحة صراع بين المؤسسات والدول وأي خلل منهم سيؤثر عليها ونعم المدة قادمة حسب دراسات قد تزيد في سعرها مع دخول أموال المؤسسات والدول تدريجيا لها.
أهلا بك استاذ جورج.. لمست نقطة جوهرية وهي "الحرية ". الموبايل رغم فوائده، إلا أنه قيدنا بحركة اليد وانحناء الرقبة وإرهاق العين المستمر . فكرة أن تكون التكنولوجيا "مساعدة " وليست "مسيطرة " هى المحرك الأساسي لابتكارات 2026 . النظارات الذكية الهدف منها هو إعادة (التواصل البصري ) مع العالم الحقيقي بدل الغرق فى شاشة صغيرة. يسعدني جداً أننا نتشارك نفس الرؤية نحو تكنولوجيا أكثر إنسانية وأقل إرهاقاً. شكراً جزيلا للتعليق مع كامل احترامى وتقديرى لك.
لا أفهم ما الذي قد يخيفني من مشاركة صوري مع الذكاء الاصطناعي، هل هذه الشركات ستجمع صور ملايين البشر ثم تبتزهم بها، هل ايضا هم مهتمون بقراءة شاتات ملايين البشر ليعرفوا الأسرار الخاصه بكل شخص، هذا غير منطقي، نعم الخوارزمية تجمع البيانات المهمة لها لإنشاء احصائيات معينة او لاستخدامها في ادوات تسويقية وهذا لا ارى فيه اي فضح للخصوصية او حتى الإطلاع عليها، هي خوارزميات عشوائية تصنف وترتب وتستخرج المعلومات المهمة لها وتخزنها وتستخدمها بنفس الاسلوب، وليسوا بشرا يقرأون محادثاتنا
دعنا نفترض انه مطلوب منك انجاز مهمة ما خلال 3 ايام، وحصل عطل في شبكة الإنترنت في اليوم الثالث منعك من التسليم لمدة يومين اضافيين واثناء التسليم قام وكيل AI بتقليص تقييم سرعة تسليمك والتزامك بالمواعيد أو وقع عليك خصماً من مستحقاتك المالية. رغم أن عذرك قهري ومعك كافة الاثباتات لمشكلتك، أليس هذا ظلماً بيناً؟!
هذا ظلم طبعا لكن ما الذي يمنع أن يكون لدى الذكاء الاصطناعي سياسة أعذار بحيث يمكنك ارسال اثبات بالمشكلة ويطلع عليها ويقرها، أو حتى يكون هناك قسم HR بشري يتولى هذه المهمة. كوننا نقول ان هناك منصة عمل حر يقوم فيها الذكاء الاصطناعي بتوظيف البشر لا يعني بالضرورة أن الأمر سيكون مدار بأكمله بالذكاء الاصطناعي، فلا بد من وجود بشر أيضا ينظمون سير العملية
بصراحة عن نفسي أعتقد أنه قد حان الوقت لتقبل أن هذه هي طبيعة الجيل الحالي وأنه ربما هذا هو المستقبل، مع الحرص طبعا على أنهم لا يتعرضون لأي شكل من الابتزاز أو التنمر الالكتروني من خلال متابعة نشاطهم وهناك العديد من الطرق لتفعيل الرقابة الأبوية ومتابعى نشاطاتهم كلها، ولكن المنع المفاجئ كما نرى قد يؤدي أحيانا للانتحار وهذه اسوأ نتيجة ممكنة
الرضوخ لفكرة "ده جيلهم وده مستقبلهم" هو مجرد تبرير مريح لرفع اليد عن التربية، وكأننا نسلم أطفالنا لشركات التقنية لتربيهم نيابة عنا أما التخويف بفزاعة "الانتحار" فهو أخطر ما في كلامك، لأنه يحول الآباء لرهائن مرعوبين عند أبنائهم.. لو وصل التعلق بجهاز لمرحلة التهديد بإنهاء الحياة، فهذا دليل قاطع على أنه "مخدر" يدمر الدماغ ويستوجب البتر فوراً، وليس "أسلوب حياة" نحتاج لمراقبته وتدليله ببرامج الرقابة الأبوية التي يكسرها الأطفال أصلاً في دقائق
أمازون تلقي اللوم على الموظفين في حادث عطل رغم أن الذكاء الاصطناعي من سببه