Tavaly júniusban Antonio Radić horvát youtubert és sakkjátékost letiltotta a Youtube gyűlöletbeszédért – senki nem tudta, mivel lehet a probléma, míg a Carnegie Mellon Egyetem kutatói rá nem jöttek, hogy a gyűlöletbeszéddel foglalkozó mesterségesintelligencia-rendszerek valószínűleg a sakkal kapcsolatos kifejezéseket értelmezték rasszizmusnak – írja az Eurekalertra hivatkozva a 24.hu.
A kutatók azt feltételezik, hogy a sakkmester Hikaru Nakamurával folytatott beszélgetéssel volt gond, amikor a fekete-fehér (angolban a sötét-világos megkülönböztetésre ezt használják) szókombinációt nagyon sokszor használták, ahogyan azt a sakkban egyébként gyakran szokták is.
A beszélgetést a mesterséges intelligencián alapuló beszédszoftver érzékelhette, amelynek feladata kiszűrni a rasszista tartalmakat. A kutatók tesztelték is az elméletüket: két gyakran használt nyelvfelismerő szoftveren futtattak végig 680 ezer, sakk témájú videóhoz írt kommentet, majd átnéztek azok közül ezret, amelyeket legalább az egyik rendszer gyűlöletbeszédként ismert fel.
82 százalékuk egyáltalán nem tartalmazott gyűlöletbeszédet.
A kutatók azt vették észre, hogy a fekete, fehér, támadás és fenyegetés szavak jelentették a kiváltó ingert. A szakértők felhívták a figyelmet arra, hogy az ilyen, gépi tanulást is alkalmazó algoritmusok pontossága nagyban függ attól, hogy milyen adathalmazon tanítják őket – írja a 24.hu cikke.