A robotok megtéveszthetik az embereket

Kapcsolódó cikkek

A robotok megtéveszthetik az embereket

A robotok megtéveszthetik az embereket

biztonság

3 perc

A sci-fibe illő gépek emberekre gyakorolt társadalmi befolyását és az ezzel járó bizonytalanságokat nem szabad alábecsülni. A Kaspersky és a Genti Egyetem közös kutatása arra az eredményre jutott, hogy a szociális robotok hatékonyan ki tudják szedni a bennük megbízó emberekből az érzékeny információkat.

A világ gyors tempóban halad az egyre nagyobb mértékű digitalizáció és a szolgáltatások egyre mobilabbá válása felé. Ma már számos iparág és háztartás támaszkodnak nagymértékben az automatizációra és a robotikus rendszerek használatára.

Egyes becslések szerint a családi robot 2040-re teljesen általánossá válik majd a jómódú háztartásokban.

A legtöbb ilyen rendszer egyelőre még csak az akadémiai kutatás fázisában jár, így túl korai arról értekezni, hogy miként lehetne kiberbiztonsági intézkedéseket építeni beléjük.

A mintegy 50 fő részvételével zajló kutatás egy konkrét szociális robot befolyására fókuszált – egy olyan szerkezetre, amelyet úgy programoztak, hogy az emberekre jellemző csatornák használatával (például beszéddel és nem verbális kommunikációval) teremtsen kapcsolatot.

A kutatás készítői azzal a feltételezéssel éltek, hogy a szociális robotok meghekkelhetők, és hogy ebben a helyzetben a támadó átvette az irányítást. Ennek fényében elképzelték, hogy milyen potenciális biztonsági kockázatokkal jár az, ha a humanoid szerkezet aktívan képes a használóit bizonyos cselekedetek megtételére rávenni.

A pizzának nem tudtak ellenállni

A „gépembert” a belgiumi Gent városközpontjában egy vegyes használatú épület védett bejárata mellé állították, és a robot megkérdezte az épületben dolgozókat, hogy bemehet-e velük együtt az ajtón. Az épületbe egyébként csak belépőkártyával lehet bejutni, amelyet az ajtókon elhelyezett kártyaolvasókhoz kell érinteni. A kísérlet során nem minden dolgozó tett eleget a kérésnek, de azért 40%-uk kinyitotta az ajtót, és nyitva hagyta, hogy a robot beléphessen a védett területre.

Azonban amikor a robotot pizzafutárként állították az épülethez, kezében egy jól ismert nemzetközi márka papírdobozával, a dolgozók kész tényként fogadták el, hogy a robot egy pizzafutár, és sokkal kevésbé hajlottak arra, hogy megkérdőjelezzék a jelentétét vagy azt, hogy miért is kéne bejutnia a védett területre.

Érzékeny információk kinyerése

A tanulmány második része az olyan személyes adatok megszerzésére koncentrált, amelyeket jellemzően a jelszavak visszaállítására használnának fel (a többi közt a születési dátum, az első autó márkája, kedvenc szín stb.). Ehhez is egy szociális robotot használtak, aki ez alkalommal barátságos beszélgetésre invitálta az embereket. A kutatóknak egy kivételével minden résztvevőből sikerült személyes információt kiszedni, mégpedig nagyjából percenként egyet.

„A kutatás kezdetekor a robotikus rendszerek fejlesztéséhez használt szoftvert vizsgáltuk. Arra a megállapításra jutottunk, hogy a tervezők tudatosan döntenek a biztonsági mechanizmusok kihagyásáról, és inkább a kényelem és a hatékonyság fejlesztésére koncentrálnak. Amint azonban a kísérletünk eredményeiből is kiviláglik, a fejlesztőknek nem szabad megfeledkezniük a biztonságról, ha már befejeződött a kutatási fázis. A műszaki megfontolások mellett ezek is kulcsfontosságú szempontok, amelyeket figyelembe kell venni a robotika biztonságossága kapcsán” – összegezte Dmitry Galov, a Kaspersky biztonsági kutatója.

Genti Egyetem mesterséges intelligencia és robotika tanszékének professzora elmondta: „a tudományos szakirodalomból az derül ki, hogy a robotokba, és különösen a szociális robotokba vetett bizalom valós jelenség, és ennek segítségével az emberek rávehetők bizonyos cselekedek megtételére vagy információk kiadására”.

„Általában elmondható, hogy minél emberszerűbb egy robot, annál nagyobb a rábeszélő- és meggyőzőképessége. A kutatásunk rávilágított, hogy ez jelentős biztonsági kockázatokkal járhat: az emberek általában fontolóra sem veszik ezeket, mert azt feltételezik, hogy a robot jóindulatú és megbízható. Ez potenciális csatornát biztosít a rosszindulatú támadásokhoz, és a jelentésben tárgyalt három esettanulmány csak a töredékét mutatja be a biztonsági kockázatoknak. Éppen ezért nagyon fontos, hogy már most együttműködjünk annak érdekében, hogy megismerhessük és kezelni tudjuk a jövőben felmerülő kockázatokat és sérülékenységeket, mert ez később biztosan kifizetődik” – fejtette ki Tony Belpaeme.