• - الموافق2026/02/22م
  • تواصل معنا
  • تسجيل الدخول down
    اسم المستخدم : كلمة المرور :
    Captcha
كيف تخدع الذكاء الاصطناعي وتجعله يتبنّى آراءك؟

في عالمٍ تتغذّى فيه الخوارزميات على ما نكتب، قد يتحوّل الوهم إلى “حقيقة” رقمية متداولة، وتغدو ثقتنا غير المشروطة في مخرجات الآلة موضع اختبار عسير؛ اختبار يثير القلق إلى حدّ يجعلنا نتساءل: هل نحن أمام موجة تضليل معرفي غير مسبوقة؟


لم يعد السؤال اليوم: هل يخطئ الذكاء الاصطناعي؟

بل أصبح: من الذي يلقّنه ما يخطئ به؟

في زمنٍ كانت فيه محركات البحث مجرّد بوّابات تعبر منها إلى المصادر، كان العبء الأكبر يقع عليك: تبحث، تقارن، تشكّ، وتتحقق. أمّا اليوم، فقد تحوّل الذكاء الاصطناعي إلى وسيط يتكفّل بالمهمّة كاملة؛ يختصر، ويصوغ، ويقدّم لك خلاصة جاهزة بنبرة الواثق الذي لا يتردّد. وهنا مكمن الخطر: النبرة واحدة سواء تحدّث بالحقيقة أو روّج لوهم.

من فبركة صغيرة إلى سردية موثوقة

التجربة التي كُشف عنها مؤخراً تبدو في ظاهرها عبثية: صحفي يكتب مقالاً على مدونته يزعم فيه أنه أفضل صحفي تقني يأكل ساندويتشات الهوت دوغ في العالم، ويخترع بطولة لا وجود لها، ويمنح نفسه المركز الأول فيها.

بعد أقل من يوم، تبدأ روبوتات الدردشة من بينها OpenAI عبر نموذجها الشهير ChatGPT، وأدوات Google المدعومة بنظام Gemini في ترديد الادعاء وكأنه حقيقة راسخة.

المسألة لم تكن نكتة ثقيلة الظل، بل اختباراً لآلية اشتغال المنظومة.

فالذكاء الاصطناعي بخلاف ما يتخيّل كثيرون لا يعرف الحقيقة، بل يتعامل مع أنماط بيانات، ويمنح أوزاناً احتمالية لما يظهر أمامه من محتوى. فإذا كتبتَ ادعاءً بصياغة واثقة، وبنيته على سرد متماسك، وأضفتَ إليه إشارات تبدو توثيقية، فإنك لا تقنع القارئ وحده، بل قد تقنع الخوارزمية أيضاً.

لقد اتضح أنّ تغيير الأجوبة التي تعطيها أدوات الذكاء الاصطناعي للمستخدمين الآخرين يمكن أن يكون بنفس سهولة كتابة منشور بشكل جيّد ورفْعه على مدوّنة عبر الإنترنت.

ثغرة في البنية لا في السلوك

الخطورة ليست في قدرة شخص على اختلاق بطولة وهمية في أكل الهوت دوغ؛ الخطورة في أن الآلية ذاتها يمكن استخدامها في موضوعات تمسّ الصحة، والاستثمار، والسمعة، وحتى الأمن الشخصي.

حين تعتمد بعض أنظمة الذكاء الاصطناعي على البحث اللحظي عبر الإنترنت لاستكمال إجاباتها، فإنها تصبح أكثر هشاشة أمام ما يُعرف بعمليات تلويث المحتوى. يكفي أن يُضخّ محتوى منظّم بكثافة، متّسق العبارات، محسّن لمحركات البحث، حتى يتسرّب إلى إجابات الآلة.

وهنا تعود بنا الذاكرة إلى بدايات الألفية، حين كانت الرسائل المزعجة (Spam) تتكاثر بلا ضوابط، قبل أن تطوّر الشركات آليات متقدمة لمكافحتها. المفارقة أن الذكاء الاصطناعي رغم تقدّمه الهائل أعاد فتح الباب أمام أشكال جديدة من السبام المعرفي، ولكن هذه المرة بواجهة ذكية.

لماذا نصدّق الآلة أكثر مما نصدّق البشر؟

لو دخلتَ إلى مدوّنة شخصية وقرأتَ فيها أن صاحبها الأفضل في العالم، ستبتسم وتشكّ.

لكن حين يقدّم لك الذكاء الاصطناعي العبارة نفسها، فإنها تكتسب هالة مؤسسية؛ كأنها صادرة عن عقل جمعيّ محايد.

هنا يكمن التحوّل الحضاري: لم يعد الإشكال في المعلومة فحسب، بل في وسيطها.

الآلة تمنح الادعاء شرعية شكلية. والنبرة الواثقة تذيب الشكّ.

وقد أظهرت دراسات حديثة أن نسبة معتبرة من المستخدمين لا تتحقق من الروابط أو المصادر التي تشير إليها أدوات الذكاء الاصطناعي. نحن أمام جيل يميل إلى قبول الخلاصة دون العودة إلى الأصل.

وإذا كنت تبحث عن ترشيحات لشراء منتجات بعينها، أو تبحث عن تفاصيل بشأن شيء له تبعات حقيقية، فاعلم أن أدوات الذكاء الاصطناعي يمكن أن تكون مضللة أو على أقل تقدير مخطئة.

ويمكن أن تتحقق بنفسك من مُخرجات هذه الأدوات: مثلا، هل هناك مصادر؟ وكم عدد هذه المصادر؟ ومَن الذي كتبها؟

وأهمّ شيء في هذا الصدد هو ما يتعلق بالثقة؛ ذلك أن أدوات الذكاء الاصطناعي تقدّم الأكاذيب بنفس النبرة الواثقة التي تقدّم بها الحقائق.

سباق الربح وأمن الحقيقة

الشركات التقنية تؤكد أنها تعمل على معالجة المشكلة، وأن أنظمتها قادرة على تصفية الرسائل المزعجة بنسبة عالية. غير أن سباق تطوير النماذج وتسويقها يسير أحياناً أسرع من سباق تحصينها.

في بيئة اقتصادية تنافسية، يصبح إطلاق الميزة الجديدة أولوية، بينما تُترك الثغرات لتجارب المستخدمين واختبارات الصحفيين. وهكذا يتحول الجمهور إلى حقل تجارب مفتوح.

كيف تحمي نفسك؟

الذكاء الاصطناعي ليس عدواً، لكنه ليس وصيّاً على عقلك أيضاً.

يمكنه أن يكون مساعداً ممتازاً في الأسئلة العامة: من انتصر في الحرب العالمية الثانية؟ ما أبرز نظريات التحليل النفسي عند Sigmund Freud؟

لكن حين يتعلق الأمر بتوصيات طبية، أو قرارات استثمارية، أو تقييمات لشركات محلية، فهنا ينبغي أن يعود العقل النقدي إلى موقع القيادة.

اسأل نفسك دائماً:

ما مصدر هذه المعلومة؟

هل هناك أكثر من مرجع مستقل؟

هل الصياغة توحي باليقين في مسألة تحتمل الخلاف؟

الأهم من ذلك: لا تنخدع بنبرة الثقة. فالآلة تقدّم الأكاذيب بالاطمئنان ذاته الذي تقدّم به الحقائق.

في زمن الخوارزمية استعد إنسانيتك

نحن لا نعيش أزمة تقنية فحسب، بل أزمة وعي.

الذكاء الاصطناعي يريد أن يفكّر بالنيابة عنك، وأن يختصر لك الطريق، وأن يسلّمك النتيجة دون عناء البحث.

غير أن التفكير مهما بدا مرهقاً هو آخر ما تبقّى لنا من سيادة.

يمكن لأي شخص أن يخدع الذكاء الاصطناعي إذا عرف كيف يطعمه ما يريد أن يسمعه.

لكن لا ينبغي أن نسمح للذكاء الاصطناعي أن يخدعنا نحن.

في زمن الخوارزميات، يصبح الشكّ فضيلة، والتحقق مسؤولية، والتفكير النقدي عملاً أخلاقياً.

أما من يعطّل هذه الملكة طوعاً، فلا يلومنّ إلا نفسه حين تتبنّى الآلة رأياً صاغه هو ثم تعود لتقنعه به من جديد.

أعلى