Nap mint nap emberek milliói fordulnak meg a Wikipédia oldalán, azonban a tények helyett sokszor ellenőrizetlen, hamis információk tömkelegét találják csak. Ennek oka, hogy a felületet tényellenőrzés nélkül, bárki szerkesztheti. Jellemző példája volt ennek az 2020-as botrány, amikor egy amerikai tinédzser 27 ezer bejegyzést írt olyan nyelven, amelyet nem is beszél. Sokan tehát nem a megfelelő céllal használják a felületet.
Ezért a Wikimedia Alapítvány nemrégiben a Facebook anyavállalattal, a Metával együttműködve igyekezett orvosolni a problémát, írja az Engadget. Elsődleges céljuk az idézetek rendberakása volt. Azonban a Wikipédia lábjegyzeteiből annyi van, hogy a platform önkéntes szerkesztői kizárt, hogy ellenőrizni tudják azt – havonta ugyanis nagyjából 17 ezer cikkel bővül az online tudástár. Ezekben pedig sokszor hiányos, vagy direkt téves idézetek szerepelnek.
A program nem csak vizsgálatot tud végezni, de alternatív hivatkozásokat is képes ajánlani, amennyiben úgy találja, hogy a szövegrésznek rossz a forrása. Ehhez az úgynevezett természetes nyelvi megértést (Natural Language Understanding – NLU) átalakítási modellt használja a program. A Meta több mint 134 millió weblapból álló Sphere adatbázisa pedig a rendszer tudásindexeként működik. A mesterséges intelligencia képességeinek illusztrálására a Meta megosztott egy hiányos idézettel kapcsolatos példát, amelyet a modell a Wikipédia Blackfoot Confederacy oldalán talált, és sikeresen abszolvált nyelvi képességeinek köszönhetően.
Az eszköz nemcsak a Wikipédia, hanem a Facebook félretájékoztatási problémáin is segíthet egy nap. A modell alkotói elmondták, bíznak benne, hogy munkájuk segítheti a tényellenőrzésre irányuló különböző erőfeszítéseket, és ezáltal nőhet az online talált információk megbízhatósága.