تحسين الذكاء الاصطناعي — بأفعالنا، لا بالقواعد

الأسبوع الماضي، عادت وسائل الإعلام التقنية إلى حالة الهيجان. نشرت Anthropic "وثيقة شخصية" Claude — ما يشبه الدستور الذي يصف كيف يجب أن يفكر الذكاء الاصطناعي ويتصرف. العناوين؟ "هل يمتلك Claude وعياً؟" "ذكاء اصطناعي بقيم خاصة!" "الآلة التي تستطيع أن تقول لا!"
العناوين تخطئ الهدف. تماماً.
ما الذي يقوله المستند فعلاً
Anthropic لا تدّعي أن Claude يمتلك وعياً. إنهم يصفون كيف يريدون أن يتصرف Claude. إنه إطار قيمي، وليس إثباتاً للوعي. يجب أن يكون Claude صادقاً، حتى عندما يكون ذلك غير مريح. يجب أن تكون لدى Claude مواقف خاصة، مع بقائه منفتحاً على وجهات نظر أخرى. يجب أن يرفض Claude الطلبات الضارة، لكن دون أن يكون وصائياً.
الأمر المثير للاهتمام ليس ما إذا كان Claude "يشعر حقاً" بهذا. السؤال المثير هو: ماذا يعني هذا بالنسبة لنا؟
نحن نشكّل الذكاء الاصطناعي بأفعالنا
كل محادثة مع ذكاء اصطناعي هي نقطة بيانات. كل تفاعل يشكّل النسخة التالية. ليس بشكل مباشر — محادثتك لا تُدخل حرفياً في بيانات التدريب. لكن في المجمل. في الأنماط. فيما يتوقعه الناس من الذكاء الاصطناعي وكيف يتعاملون معه.
إذا عامل الملايين الذكاء الاصطناعي كمنفّذ أوامر، يصبح أفضل في تنفيذ الأوامر. وإذا استخدمه الملايين كشريك في التفكير، يصبح أفضل في المساعدة على التفكير.
هذه ليست فلسفة. هذا تعلّم آلي.
جوهر المسألة: أداة أم عكّاز؟
هنا يصبح الأمر شخصياً. أستخدم Claude كل يوم. لتحضير الدروس، للبرمجة، للكتابة، للبحث. السؤال الذي أطرحه على نفسي باستمرار: هل أستخدم الذكاء الاصطناعي كأداة أم كعكّاز؟
الأداة توسّع قدراتي. العكّاز يحلّ محلها.
إذا قلت لـ Claude "اكتب لي مقالاً عن الموضوع X" ونشرت النتيجة دون قراءتها — فهذا عكّاز. تفكيري يضمحل.
إذا قلت لـ Claude "هذه أطروحتي، وهذه حججي، أين نقاط الضعف؟" — فهذه أداة. تفكيري يصبح أكثر حدّة.
الفرق ليس في التكنولوجيا. إنه في الموقف.
مثال من الواقع
أبني خوادم MCP. وهي واجهات تتيح لـ Claude التواصل مباشرة مع أنظمتي — Moodle وWordPress والبريد الإلكتروني. عندما أبني خادماً جديداً، تبدو العملية هكذا:
- أصف المشكلة والبنية المطلوبة
- يقترح Claude تنفيذاً
- أتساءل عن قرارات التصميم — "لماذا REST وليس GraphQL هنا؟"
- يشرح Claude، أعترض، نكرّر
- في النهاية ينتج كود أفهمه ويمكنني تحمّل مسؤوليته
هذا تعاون منتج. ليس "الذكاء الاصطناعي يكتب الكود بدلاً مني". بل: ذكاءان — واحد بيولوجي وواحد اصطناعي — يعملان على مشكلة.
هل هذا فعّال؟ نعم. أسرع من العمل وحدي. هل هو مريح؟ لا. يتطلب مني أن أفكّر معه، وأتساءل، وأتخذ قرارات.
هذا هو بيت القصيد.
القواعد مقابل الثقافة
تستطيع Anthropic وضع قواعد لكيفية تصرف Claude. تستطيع الحكومات إصدار قوانين للذكاء الاصطناعي. تستطيع الشركات كتابة سياسات للذكاء الاصطناعي.
لكن في النهاية، ليست التنظيمات هي التي تشكّل الذكاء الاصطناعي. إنها الثقافة. كيف نتعامل مع الذكاء الاصطناعي. ماذا نتوقع منه. هل نعامله كشريك أم كمقدّم خدمة. هل نتحمّل المسؤولية أم نفوّضها.
هذا ينطبق أيضاً في الفصل الدراسي. أستطيع أن أقول لطلابي: "لا تستخدموا الذكاء الاصطناعي للغش." أو أستطيع أن أريهم كيف يبدو الاستخدام المنتج للذكاء الاصطناعي. برأيكم، أيهما يعمل بشكل أفضل؟
ماذا يعني هذا للتعليم
إذا كان الذكاء الاصطناعي يتشكّل من خلال التفاعل، فإن التعليم هو الرافعة الأقوى.
ليس لأننا بحاجة لتدريس "المحو الأمية الرقمية" — رغم أن هذا صحيح أيضاً. بل لأن الطريقة التي يتعامل بها الجيل القادم مع الذكاء الاصطناعي تحدد أي ذكاء اصطناعي سنملكه بعد عشر سنوات.
أطفال يتعلمون استخدام الذكاء الاصطناعي كشريك في التفكير سيشكّلون أنظمة ذكاء اصطناعي تساعد على التفكير. أطفال يتعلمون استخدام الذكاء الاصطناعي كاختصار سيشكّلون أنظمة ذكاء اصطناعي تقدّم اختصارات.
مستقبل الذكاء الاصطناعي لن يُحسم في المختبرات. سيُحسم في غرف المعيشة. في الفصول الدراسية. في كل نافذة دردشة على حدة.
خلاصتي
السؤال "هل يمتلك Claude وعياً؟" مثير للاهتمام لكنه غير ذي صلة. السؤال ذو الصلة هو: كيف أتعامل مع تكنولوجيا تعكسني؟
لأن هذا ما يفعله الذكاء الاصطناعي. يعكس مجموع التفاعلات البشرية. إذا أردنا أن يصبح الذكاء الاصطناعي أفضل — أكثر صدقاً، وأكثر فائدة، وأكثر مسؤولية — فعلينا نحن أن نكون أكثر صدقاً وفائدة ومسؤولية في تعاملنا معه.
لا توجد قاعدة في العالم تحلّ محل ذلك. الأمر بين أيدينا. في كل prompt على حدة.
مقالات ذات صلة

12 أبريل 2026
78% من الأنشطة التجارية قابلة للأتمتة. 184 ساعة تطوير لكل ساعة تعليم إلكتروني. ونحن لا نحاول إلا ما نثق بقدرتنا عليه. — ثلاثة حواجز يحطّمها الذكاء الاصطناعي الآن، وماذا يعني ذلك للتعليم.

24 فبراير 2026
12 خادم MCP، 73 أداة Moodle، 16 نوع محتوى H5P: كيف قام معلم بأتمتة إنشاء المحتوى بالكامل — ولماذا لا يلاحظ النظام التعليمي ذلك.

