السلام عليكم، كيف حالكم جميعا.

لست خبيرا بالسياسة لكن لاحظت مؤخرا أن كل عملية إرهابية نسمع عنها تتبناها داعش، طبعا لن أصدق أن داعش هي من فعلتها كون بعضها بعيدا جدا عن الشرق الأوسط.

بدأت ألتمس دلائل تشير الى أن من وراء داعش هم فعلا الولايات المتحدة والغرب بشكل عام، كأنهم يحاولون بذلك تطبيع صورة نمطية عن الإسلام أنه دين قتل وخراب.

هل لديكم سبب آخر لهذه التبنيّات الغريبة؟