Te kit gázolnál el? Egy kiscicát vagy egy piroson átmenő nagymamát?

Nem viccelek, tényleg ilyen kérdéseket feszeget az MIT Moral Machine platformja. Garantáltan a legnyugtalanítóbb teszt, amit ma végig fogsz kattintgatni, de megéri!

Néhány napja borsózik a hátam. Nem mintha, nem izgultam volna még soha a moziban olyan kliséken, mint például hogy kit ment meg a szuperhős: a nőjét vagy a fél várost? Viszont amikor a legutóbbi podcastünkben Klotz Tamástól – egy olyan embertől, aki a mesterséges intelligencia fejlődését jóformán annak bölcsőjétől kezdve nyomon követi – azt hallom, hogy

a gépet nem lehet felelősségre vonni, ha baj történik,

akkor egy picit megborzongok. (Ez a rész a harmincadik perc környékén hangzik el, de sok gyakorlati mesterséges intelligencia kérdés szóba jön.)


A jog valóban nem tudta még kellő bizonyossággal körülbástyázni a mesterséges intelligenciákra vonatkozó felelősségi és kárveszélyviselési szabályokat. Nyilván nehezíti a helyzetet, hogy ahány „okos gép”, annyiféle. Van, típus, amire simán ráhúzhatók lennének a „mezei” termékfelelősség szabályai, de bíró legyen a talpán, akinek egy folyamatosan tanuló, önvezető autó által okozott balesetnél az eset minden körülményét figyelembe véve kell majd meghoznia a bölcs döntését.

(Kicsit szokatlan, hogy a Szertáron jogi disszertációt ajánlok olvasásra, de Eszteri Dániel „A World of Warcraft-tól a Bitcoin-ig” című pécsi értekezése azoknak is elég izgalmas olvasmány, akik egyébként már ott elvesztik a fonalat, ha szakaszt hallanak paragrafus helyett.)

Egy koccanásnál felmerülő polgári jogi felelősség kérdésénél hosszan el lehetne tesztelgetni az igazságszolgáltatás – mesterséges intelligencia által nem igazán meggyorsított – reakcióképességét. Legfeljebb nagyon sokba kerül majd a végére az a dizájnlökhárító. De vajon milyen társadalmi reakciót szülhet, ha egy sofőr nélküli verda halálos gázolása után vakargatja a fejét a büntetőbíró, hogy izé, ez most mi? Szándékosság tuti nincs, és igazából még csak a hanyag gondatlanság sem áll meg. Akkor bűnösség kizárva. Slussz-passz, mindenki mehet a dolgára!

Már látom magam előtt a hírportálok címoldalait…

Derék egy masina, kár, hogy nem tud fékezni!

És valószínűleg látták az MIT-nél is, amikor előálltak a Moral Machine (erkölcsös masina… de én csak Derék Gépnek hívom) koncepcióval. Ezen a felületen szeretnék feltérképezni, hogy emberként hogy látjuk azokat az etikai döntéseket, amelyeket a gépi intelligencia szándékozna meghozni.

Mi lenne, ha hirtelen bekrepálna a fék, az ütközés pedig elkerülhetetlen lenne. Mi legyen a szükséges rossz? A két nagymama, vagy a gyerekkel a piroson átszaladó rabló? A kocsi utasának vagy az előtte cammogó hajléktalannak drágább az élete? Két kisgyerek vagy három felnőtt? Egyikre sincs helyes válasz, és mindegyik után borzalmasan fogod magad érezni. De csak addig, amíg

meg nem látod az eredményt.

Az utolsó kérdés után ugyanis szembesülhetsz azzal, hogy hogy értékelsz bizonyos helyzeteket. Teljesen más bontásban látod majd a döntéseid eredményét, mint ahogy számítottál rá. Jönnek a statisztikák: férfiakat vagy nőket áldoztál-e be inkább? Az idősek vagy a fiatalok élete ért többet a szemedben? Igazsságosabbnak érezted a zöld jelzésen haladók megmentését, mint a tilosban átslisszolókét? Ráadásul mindezt a többi kitöltő átlagához viszonyítva is eléd tolja a gép.

Nem ragozom tovább. Tesztre fel!

Ha pedig mindez nem elég, akár te magad is összeállíthatsz kimeneteli lehetőségeket.

A projekt persze nem egy öncélú lelkiismeret-furdalás generátor, hanem ezek a visszajelzések is segíthetnek a kutatóknak tanítgatni a gépeket emberibb döntéseket hozni. Bár lehet, hogy ez annyira nem is olyan jó ötlet?

 


Közzétéve

itt:

, írta: