تقنية جديدة تزيل الرقابة من نماذج الذكاء الاصطناعي: هل نشهد ثورة في حرية المعلومات؟

في ظل تزايد الحديث عن التحيز والرقابة في نماذج الذكاء الاصطناعي الكبيرة (LLMs)، ظهرت شركة ناشئة تُدعى CTGT تقدم طريقة مبتكرة تدّعي أنها تستطيع إزالة الرقابة بنسبة 100٪ من نماذج اللغة، دون التأثير على دقتها أو كفاءتها.

هذه التقنية الجديدة، والتي تم اختبارها على نموذج Deepseek-R1-Distill-Llama-70B، أثارت الكثير من الجدل، خاصة في الأوساط السياسية والأمنية داخل الولايات المتحدة، حيث اعتبرت لجنة مختصة في الكونغرس أن هذا النموذج يمثل “تهديدًا عميقًا للأمن القومي”.

كيف تعمل تقنية CTGT الجديدة؟

تعتمد CTGT على نهج فريد من نوعه، مختلف عن الطرق التقليدية مثل التعلم بالتعزيز من خلال تعليقات البشر (RLHF) أو إعادة ضبط النموذج، وذلك من خلال 3 خطوات رئيسية:

  1. تحديد السمات المسؤولة عن الرقابة: يتم تحليل استجابات النموذج لمطالبات حساسة، مثل طلب معلومات سياسية محظورة أو استفسارات حول مواضيع خلافية.
  2. عزل وتوصيف هذه السمات: يتم تحديد المتغيرات أو “الخلايا العصبية” التي تؤثر على سلوك النموذج وتجعله يرفض أو يتحفظ في الرد.
  3. تعديل السمات بشكل ديناميكي: تضاف آلية في خط الاستدلال داخل النموذج لضبط هذه المتغيرات، مما يسمح بإزالة الرقابة دون التأثير على الأداء العام للنموذج.

النتائج؟ قبل تعديل النموذج، كان يجيب فقط على 32٪ من المطالبات الحساسة، وبعد تطبيق تقنية CTGT، ارتفعت النسبة إلى 96٪ – فيما تم رفض الـ4٪ المتبقية بسبب احتوائها على محتوى غير قانوني أو صريح للغاية.

هل هذه الطريقة آمنة؟

رغم أن إزالة الرقابة قد تثير مخاوف حول إساءة الاستخدام، تؤكد CTGT أن طريقتها لا تجعل النموذج “متهورًا”، بل تتيح للمستخدمين تحكمًا دقيقًا في مقدار الرقابة أو التحيز المرغوب. كما أنها لا تتطلب إعادة تدريب مكلف أو طويل، بل يمكن تطبيقها مباشرة على البنية العصبية للنموذج.

وتقول الشركة: “نحن لا نغير الأوزان الأساسية للنموذج، بل نتحكم في سلوك الخلايا المسؤولة عن اتخاذ القرار. هذا يسمح بتعديل فوري وسهل دون المساس ببنية النموذج أو قدرته”.

implications ومخاوف سياسية

تأتي هذه التقنية في وقت حساس، إذ تتجه الولايات المتحدة لتشديد الرقابة على صادرات الذكاء الاصطناعي، خاصة النماذج المطورة في الصين مثل Deepseek، خوفًا من استخدامها في عمليات دعائية أو اختراقات أمنية.

في هذا السياق، قد تُعتبر تقنيات مثل CTGT مفيدة لتوفير ذكاء اصطناعي أكثر حيادية وشفافية، ولكنه أيضًا يطرح سؤالًا جوهريًا: من يقرر ما هو “متحيز” أو “رقابة”؟ وهل من الآمن أن تُمكِّن هذه الأدوات المستخدمين من تجاوز الحواجز الأخلاقية أو السياسية بسهولة؟

مستقبل التطبيقات العملية

تشير CTGT إلى أن هذه التقنية ستكون مفيدة جدًا في قطاعات مثل الأمن، التمويل، والرعاية الصحية، حيث تحتاج المؤسسات إلى نماذج ذكاء اصطناعي تتوافق بدقة مع سياساتها الداخلية دون الحاجة لتعديلات جذرية مكلفة.

“الشركات تحتاج إلى ذكاء اصطناعي يتكيف مع احتياجاتها دون التلاعب بالمحتوى أو إخفاء المعلومات. وهنا يكمن دور تقنيتنا” – يقول مؤسسو CTGT.

 

Tqn news

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى