فى عام 2020، غمر مجتمع ويكيبيديا فضيحة عندما ظهر أن مراهقًا أمريكيًا كتب 27000 معلومة تم إدخالها بلغة لم يتحدثوها وكانت الحلقة بمثابة تذكير بأن الموسوعة على الإنترنت ليست مصدرًا مثاليًا للمعلومات، وفى بعض الأحيان سيحاول الناس تعديل إدخالات ويكيبيديا بدافع الخبث، ولكن غالبًا ما تأتي الأخطاء الواقعية من شخص حسن النية يرتكب خطأ وهذه مشكلة، وفقا لتقرير engadged.
ودخلت مؤسسة ويكيبيديا مؤخرًا فى شراكة مع شركة ميتا الأم للفيسبوك لمعالجتها، ووضع الاثنان نصب عينيهما الاستشهادات التى يضعها المحررون، وتكمن مشكلة Wikipedia في أن هناك عددًا كبيرًا جدًا من المحررون المتطوعون للمنصة لابد من التحقق من كتاباتهم ومع نمو موقع الويب بأكثر من 17000 مقال شهريًا ، فإن المعلومات التى لا تعد ولا تحصى غير مكتملة أو مفقودة أو غير دقيقة تمامًا.
وطورت Meta نموذجًا للذكاء الاصطناعى يمكنه مسح الاقتباسات تلقائيًا على نطاق واسع للتحقق من دقتها، ويمكن أن يقترح أيضًا اقتباسات بديلة عندما يجد فقرة ذات مصادر ضعيفة وعندما يقوم محررو ويكيبيديا بتقييم الاستشهادات، فإنهم يعتمدون على الحس السليم والخبرة، وعندما يقوم الذكاء الاصطناعى بنفس العمل ، فإنه يستخدم نموذج تحول لفهم اللغة الطبيعية (NLU) الذى يحاول فهم العلاقات المختلفة للكلمات والعبارات داخل الجملة.
وقاعدة بيانات Meta’s Sphere ، التي تتكون من أكثر من 134 مليون صفحة ويب ، تعمل كمؤشر معرفة للنظام، وأثناء قيامه بعمله المتمثل فى التحقق من الاقتباسات فى إحدى المقالات ، تم تصميم النموذج للعثور على مصدر واحد للتحقق من كل مطالبة.
ولتوضيح قدرات الذكاء الاصطناعي ، شاركت Meta مثالاً على اقتباس غير مكتمل للنموذج الموجود على صفحة Wikipedia الخاصة بـ Blackfoot Confederacy، و تحت قسم الأشخاص البارزين في Blackfoot يذكر المقال جو هيب أول أمريكى أصلى يتنافس على لقب WBA World Heavyweight ولا يذكر موقع الويب فى معلوماته الهيب أو الملاكمة، وبالبحث فى قاعدة بيانات أسفير وجد النموذج اقتباسًا أكثر ملاءمة فى مقالة 2015 من جريت فولز تريبيون.
وتأمل ميتا أن يتم استخدام جهود التحقق من الحقائق وزيادة الموثوقية العامة للمعلومات عبر الإنترنت، وفى غضون ذلك تأمل Meta فى بناء منصة يمكن لمحررى Wikipedia استخدامها للتحقق من المعلومات وتصحيحها بشكل منهجى.