Tech

Érzelmeink miatt bukhatjuk el a munkánkat

Egyre több helyen használhatják az érzelemfelismerő szoftvereket arra, hogy a munkavállalók őszinteségét állapítsák meg. Az IBM-nél és Unilevernél már gyakorlatban is alkalmazott módszer kifejezetten pontatlan lehet, így rengeteg veszélyt rejtenek magukban.

Az apró startupoktól egészen az olyan techóriásokig, mint az Amazon vagy a Microsoft, jó néhány vállalat kínál még érzelemfelismerő szoftvereket. Az ilyen programok általában két részből állnak: egy kamerából, amely felveszi az alanyok arcát, és egy mesterséges intelligencia, amely képes a felvett arcvonásokból meghatározni, hogy az illető mit is érezhet. Az olyan jelekből dolgozik, mint az összevont szemöldök (harag, zavar), vagy a széles mosoly (boldogság).

Több helyen alkalmazzák már az ilyen technológiákat például a munkaerő-felvételnél: az IBM és az Unilever például rendszeresen elemzi a jelentkezők mimikáját, a Disney pedig a vetítéseken figyeli meg, milyen reakciót váltanak ki a filmjeik a nézőkből. A módszer rengeteg pozitívumot tartogat magában, és sok lehetőséget rejt – de

vannak komoly hibái is, erre pedig egy novemberi tanulmány mutatott igazán rá.

Nemrég írtunk arról, hogy az önvezető autók algoritmusa rasszista lehet – átvitt értelemben persze, ami azt jelenti, hogy a sötét bőrű embereket lassabban vagy kevésbé ismeri fel a járdán és az úttesten. Ugyanez a helyzet ezekkel az algoritmusokkal is: a sötét bőrű emberek arckifejezéseit nagyobb hibaaránnyal azonosítja, ami akár azt is jelentheti, hogy ezzel hátrányba kerülnek a munkahelyen. A kutatás arra mutatott rá, hogy több bajt okozhatnak az ilyen rendszerek, mint amennyi hasznot hoznak – ezért amíg nem tökéletesítik őket, inkább nem kéne ilyen célra használni őket.

Ajánlott videó

Olvasói sztorik