طوّر باحثون من جامعة هارفارد ومعهد ماساتشوستس للتكنولوجيا خوارزمية جديدة تعمل بالذكاء الاصطناعي، قادرة على التعرف على النص الذي تم إنشاؤه آلياً ودون تدخل بشري، وذلك في مسعى لمحاربة انتشار الإشاعات.
أطلق العلماء على الخوارزمية الجديدة (نموذج اختبار اللغة العملاق) “GLTR”، ويهدف هذا النظام لاكتشاف إن كان إنشاء قطعة معينة من النص تم بواسطة خوارزمية ذكاء اصطناعي (طريقة آلية دون تدخل شخصي)، وهو ما انتشر بشكل كبير في الآونة الأخيرة.
يأتي تطوير هذه الخوارزمية من قبل الخبراء بسبب كمية الأخبار الكاذبة الكثيرة التي انتشرت على مواقع التواصل الاجتماعي.
ووفقاً للنتائج التي تبادلها الباحثون، قامت “GLTR” بتحسين معدل الكشف البشري للنصوص المزيفة من 54٪ إلى 72٪ دون أي تدريب مسبق.
إن الجمل التي تم إنشاؤها بواسطة مولدات النصوص التي تستخدم الذكاء الاصطناعي قد تكون صحيحة من الناحية النحوية، ولكن قد لا تحمل أي معنى حقيقي.
لذا تستخدم الخوارزمية الجديدة نظماً إحصائية لتوزيع الكلمات في النص لتحديد الاختلافات، الفرضية الأساسية هي أنه إذا تم إنشاء النص باستخدام نموذج الذكاء الاصطناعي، فسوف يحتوي على سلسلة من الكلمات يمكن التنبؤ بها أكثر من تلك التي يكتبها الإنسان.
يتم تمييز الكلمات التي من المحتمل أن تظهر إحصائياً في النص باللون الأخضر، والكلمات الأقل احتمالاً تكون باللون الأصفر والأحمر، أما الكلمات الأقل ترجيحاً فهي تحمل علامة أرجوانية.
والفكرة هي أن النص الأصيل يميل إلى امتلاك مزيج صحي من الكلمات التي تحتوي على الأصفر والأحمر والبنفسجي، إذا كان النص الذي تم تمييزه غالباً باللون الأخضر والأصفر، فيعطي إشارة قوية إلى أنه قد يكون تم إنشاؤه بواسطة مولد للنصوص.
يمكن لمبادرات مثل مبادرات “GLTR” أن تكون ذات قيمة ليس فقط في اكتشاف نصوص مزيفة، ولكن أيضاً في التعرف على تغريدات تويتر التي تم استخدامها لتعطيل العمليات الانتخابية في الولايات المتحدة وأماكن أخرى.