Előző részben a gazdasági hátrányokkal foglalkoztunk. Most a hallucinációt és az etikai kérdéseket vesszük sorra.
Hallucináció
A hallucináció nem más, mint amikor az AI olyan információkat generál, amelyek nem valósak. A hallucináció a neurális hálózat sajátja. Mivel ugyan azokat a neuronokat tanítjuk újra és újra, ezért biztosan megtörténik, hogy egy bizonyos bemenetnél olyan választ ad, amely sohasem létezett. MIvel ez a neurális hálózat felépítéséből adódik, ezért nem csak az AI -nél jelentkezik, hanem természetesen az embernél is. Például nem véletlen, hogy ha egy bűnesetet több tanú látott, akkor ahány tanú van, annyiféle vallomás lesz. Mindenki mást hall és lát. A régi emlékeink befolyásolják az új emlékeket.
Mivel ez a neurális hálózatokhoz tartozó sajátosság, ezért a jövőbeni AI modellek is rendelkezni fognak ezzel a tulajdonsággal, ha azok neurális hálózaton alapulnak.
A kérdés viszont az, hogy ezt miért soroljuk a veszélyek közé.
Nem feltétlenül a tévedés mértékével van a probléma. Vegyünk például egy orvosi diagnosztikai rendszert. Mondjuk egy orvos átlagosan 90 százalékban helyesen diagnosztizál, míg egy AI 97% pontossággal. Mi ezzel a probléma? Sokkal jobb mint egy ember. Itt azonban nagyon fontos miről szól ez a pontosság. Ha itt csak azt kell megállapítani, hogy valakinek egy anyajegye rákosodik-e el vagy nem, akkor érdemes AI-t használni, és használnak is, mert jobb eredményt ad.
Azonban ha azt vesszük, hogy általános diagnosztizálás esetén ugyenez az arány, akkor az már nem megfelelő. Vagy nem mindegy, hogy milyen irányban történik a tévedés. Például, ha egy AI tyúkszemet darázscsípésnek néz, vagy fordítva, akkor nem történik semmi különös, maximum a kapott kenőccsel nem gyógyulunk olyan gyorsan. Azonban ha trombózist vagy agyvérzést, stb diagnosztizál más kevésbé veszélyes betegségnek, akkor ez probléma, mivel bele is halhatunk. De miért nem probléma ugyanez egy emberi diagnosztikával kapcsolatban? Ez pedig a felelősség és a felelősségtudat, ami az AI-nek nincs, de az embernek meg van. Ez azt jelenti, hogy az AI tévedési rátáját homogénnek vehetjük. Például ugyanolyan arányban fog tévedni kisebb problémáknál, és kisebb problémáról nagyobb problémára való tévedése ugyanannyi, mint másik irányban. Eleve az AI azt sem “érti”, hogy mit jelentenek a nagyobb, kisebb, kevésbé veszélyes vagy veszélyesebb fogalmak. Az orvos viszont ezekkel tisztában lesz. Tehát ha tyúkszemünk van, akkor nem fogja túlaggódni, hogy rosszul diagnosztizál. De komolyabb kór esetén, ha valamiben nem teljesen biztos, akkor ezzel tisztában van és tudja, hogy mit jelent, ha rosszul dönt. Ezért, ha valami kétesélyes, akkor inkább a veszélyesebb felé dönt. Esetleg kér konzultációt, további vizsgálatokat. stb. Ezért az ilyen diagnosztizáló rendszereket ilyen irányba fejlesztik. Azonban tisztában kell lennünk ezzel, mert a jövőben az AI rendszerek el fognak szaporodni, és az életünk minden részében jelen lesznek, például biztosítás igénylés, ajánló rendszerek, befektetési rendszerek, stb. Bár ezt a problémát próbálják majd csökkenteni és kezelni, de megszüntetni soha nem lehet, mert ez a technológia sajátja.
Soha nem szabad elfelednünk, hogy az AI csak intelligencia. NIncs morális és etikai gondolkodása. Amit mond azt nem felelősséggel teszi.
Adatvédelmi és biztonsági aggályok
Az AI modellek tanítása során, olyan adatok is kerülhetnek a tanító adatok közé, amelyek személyes vagy érzékeny adatok. Azonban, ha az AI ezeket az adatokat megtanulta, akkor ezekhez más emberek és más AI is hozzá tudnak férni. Ezekkel az adatokkal sokféleképpen vissza lehet élni.
Egyik lehetőség, hogy az adott személyt befolyásoljuk az adatok birtokában. Például mit vásároljon, milyen pártra szavazzon. Lásd Cambridge Analytica az AI nélkül is - csak statisztikai szoftverek segítségével -, manipulálni tudta a Brexit kimenetelét.
Ezen kívül a kiberbűnözők is fel tudják használni az adatokat célzott támadásokra, például adathalász levelek küldésére, stb.
A másikféle biztonsági probléma, hogy az AI modellek támadhatóak és így, az AI által felügyelt rendszerek befolyásolhatóak. Elég csak arra gondolnunk, hogy milyen problémát tudna okozni, ha egy önvezető autó vezérlését befolyásolni tudnák kívülről. A bűnözők, terroristák számára, vagy ellenséges szervezet, országok számára, fegyverként lennének használhatóak. Minél több ilyen, és több efféle eszköz van a közelünkben, az potenciális veszélyforrást jelenthet.
Jogi és Etikai kérdések
Jelen pillanatban azok az AI rendszerek, amelyekkel naponta kapcsolatban vagyunk, még nem okoznak komoly gondot, és itt ne csak a nyelvi modellekre gondoljunk. Lehet az például egy biometrikus leolvasó is. Ezek zárt rendszerben működnek, azon kívülre nincs hatásuk. Azonban már most sincs ez így minden esetben. Ezért ezt a kérdéskört érdemes kétfelé venni.
Külvilág felé aktív és nem aktív rendszerek
A külvilág felé aktív rendszereknek tekinthető minden olyan eszköz, amely a valós világban tényleges tevékenységet képes végrehajtani. Ilyenek például:
- az önvezető autók, autonóm drónok
- interneten aktív AI rendszerek
- intelligens és autonóm fegyverek
- robotok,
- stb
Ha belegondolunk, akkor nagyon is ésszerű, hogy ezek milyen etikai problémákat tudnak okozni. Gondoljunk csak bele, ha egy drón vagy egy önvezető autó személyi sérülést okoz, vagy egy autonóm fegyver a nemzetközi jog szerinti “ártatlan” embereket öl meg.
A kérdés, kit terhel a felelősség?
Ezeket az esetek csak megfelelő jogi környezet megalkotásával lehet kezelni, és a használók és a gyártók felelősségét tisztázni.
Külvilág felé nem aktív rendszerek:
Amikor az AI valós akciókat nem hajt végre, de annak ellenére etikailag megkérdőjelezhető dolgokra használják. Ilyen pl:
- Társadalmi pontozás, lásd Kína
- természetes személyek biometrikus azonosítása és kategorizálása, nyomonkövetése
- stb
Ezek az információk a személyi szabadságot sértik, vagy a személyek befolyásolására alkalmas eszközökhöz szolgáltathatnak információt.
Az Európai Unió által megalkotott AI jogszabály alapján, ezek magas és kritikus kockázatnak minősülnek, és így szigorú jogi korlátozások alá esnek.
A jövőbeni probléma azonban nem ezekkel van, ugyanis ezeket a veszélyeket már most is nagyon jól látjuk, és sok ember foglalkozik ezek szabályozásával és kezelésével kormányzati szinten is.
A gond az, hogy a jövőben lehetnek már olyan AI rendszerek, amelyek már komplex feladatokat tudnak végrehajtani. Homályos, általános célokból meg tudják tervezni a végrehajtás lépéseit, és agilis módon végre tudják azokat majd hajtani. Tehát már elérik az AGI vagy a ASI szintjét. Amikor ez megtörténik, az AI illegális felhasználása már elég nagy kísértést fog jelenteni. Az AI által okozott gazdasági nyomás olyan politikai nyomást fog gyakorolni, hogy antidemokratikus vezetők és rendszerek már fel fogják használni a hatalmuk kiteljesedéséhez és fenntartásához.
Folytatása következik...