Nem mostanában éli a Google a legszebb napjait. A keresőóriás nemrégiben, egy nagyszabású bemutató keretében leplezte le a mesterséges intellgienciára épülő újításait, azonban a keresőbe épített AI Overview nem sült el túl jól: volt, hogy ostoba, néha pedig kifejezetten veszélyes tanácsokat osztogatott a felhasználóknak. Jobban fájhat azonban az Alphabet anyacég feje amiatt, hogy több ezer oldalnyi, a keresőmotorjuk működésébe betekintést engedő belsős adat látott napvilágot, írja a Verge.
A szivárgásról Rand Fishkin és az adatok értelmezésében segítséget nyújtó Mike King keresőoptimalizálási (SEO) szakértők számoltak be a hét elején egy hosszú bejegyzésben. Az anyagot a hírek szerint a Google saját automatizált botja publikálhatta március 13-án a kódmegosztásra használt GitHub platformra, ami bár csak rövid ideig volt itt elérhető, ez idő alatt több külsős SEO-szakértő is felfigyelt rá. A dokumentumok tartalmáról azóta terjengenek pletykák a neten, azonban azok hitelességét csak most erősítette meg hivatalosan a Google.
A hwsw szerint a 2500 oldalas dokumentum átláthatóbb részleteket szolgáltat arról, hogy a cég milyen adatokat gyűjt a weboldalakról, miként kezeli a kisebb lapokat, és hová nyúl az olyan érzékeny témák esetén, mint egy választás vagy épp a pandémia. Utóbbi esetben a lap szerint kiderült, hogy a forrásokat listázzák, és fekete-, valamint fehér listákra osztják megbízhatóság szerint. Bár az útmutató több mint 14 ezer elérhető vagy az API-val (jelentése alkalmazásprogramozási felület, ami a szoftverek egymás közti kommunikációját biztosítja) társított attribútumot részletez, az nem derül ki egyértelműen, hogy a Google hogyan súlyozza ezeket a rangsorolás során.
Egy idén megjelent tanulmány szerint mostanra teljesen tönkre tette a keresési élményt, hogy a Google rendszerét kihasználó profi SEO-sok miatt egyre több a tökéletesen optimalizált, de tartalmilag alacsony minőségű tartalom a találatok között. A Google persze szereti hangoztatni, hogy ez nem a rendszer nyomásgyakorlása miatt van így, a kiszivárgott dokumentumokban viszont elég sok dolog utal arra, hogy mégis, teszi hozzá a Telex.
Bár a Google az Egyesült Államok Igazságügyi Minisztériuma által indított trösztellenes ügyében nemrégiben tett tanúvallomásában kijelentették, hogy nem használnak Chrome-ból szedett adatokat a keresési eredmények sorba állításához, a dokumentumok ennek ellent mondanak.
A WebShark szerint a dokumentumok arra engednek következtetni, hogy a weboldalaknak sikeres kattintásokat kell gyűjteni minél több keresőkifejezésre, valamint a linkek sokszínűségére kell törekedni a jó helyezés elérésének érdekében. A keresőóriás korábbi állításaival szemben tehát a kattintási adatok és a felhasználói aktivitás mellett a jó címek és az átkattintási arány is fontos.
Ez még csak néhány megállapítás a hosszú dokumentumból, Fiskin a bejegyzésében pedig jelezte, hogy nagyon izgatott azt illetően, hogy a következő időszakban milyen hasznos információkat fognak még kiszedni a szakértők a dokumentumokból.