AI veszélyei

AI veszélyei

AI félelmek és veszélyek - 2. rész

Gazdasági hátrányok

2025. január 02. - Tenacious Scotty

dall_e_2024-12-23_16_53_57_a_thought-provoking_scene_illustrating_artificial_intelligence_causing_social_inequality_the_image_shows_a_futuristic_city_divided_into_two_starkly_c.webp

Előző részben az elfogultsággal és diszkriminációval foglalkoztunk. Most a gazdasági problémákat vesszük sorra. 

Mik is lennének ezek: 

  • Munkanélküliség
  • Nagy energiafelhasználás és felhasználási költségek
  • Szétszakadó társadalmak - gazdasági egyenlőtlenség

Munkanélküliség

Sok ember az AI-val kapcsolatos problémákat úgy szemléli, hogy mennyire befolyásolja az életét, vagy várhatóan mennyire fogja azt befolyásolni a közeljövőben.  Ha például én software fejlesztő vagyok, és nem vagyok grafikus , akkor nem fog érdekelni, hogy a képgeneráló GenAI elveszi a grafikusok munkáját. Mint fejlesztő gondolhatom azt, hogy most még jó is, mivel segíti a munkámat az AI. Azonban ha eljutunk egy AGI -hoz  - egy általános intelligenciához -, akkor már fejlesztőkre sem lesz szükség. De nem lesz szükség forgatókönyvírókra, operatőrökre, színészekre, írókra, grafikusokra, programozókra, titkárokra, irodistákra, középvezetőkre, marketingesekre, stb. 

Most úgy áll a dolog, hogy a fizikai munkások aggódhatnak a legkevésbé. Azonban a robotikával a jövőben ez is változhat.  A kérdés az, hogy mennyire tekintünk előre az időben. Például azt jósolják, hogy a következő 10-15 évben elérjük az AGI-t, az általános emberi intelligenciával rendelkező AI-t. 

A robotika elterjedése ennél tovább fog tartani, de most is jelen van, és folyamatosan növekszik a térnyerése. Ha mindezt jól végiggondoljuk, akkor ebből az következik, hogy csak nagyon kevés olyan munkahely lesz, amely hosszabb távon sem lesz veszélyben. Például cégek felsővezetői, szerelők, kutatók, különleges szolgáltatásokat nyújtó személyek, politikusok, stb. 

Azaz hosszabb távon a munkahelyek túlnyomó többsége megszünik, vagy minimalizálódik. 

Ezzel kapcsolatban van egy jövő értelmezési probléma az AI -al kapcsolatban. 

Sokan  a jövőt úgy próbálják prognosztizálni, hogy visszanyúlnak a történelemben lezajlott technikai forradalmakhoz. Például az iparosodás, a gőzgépek elterjedése, a belső égésű motorok elterjedése, a számítástechnika, az internet, vagy a mobiltelefon elterjedését veszik alapul. Azonban mindenki érzi, hogy az AI forradalom mindegyiktől egy kicsit eltér. Egyikhez sem hasonlítható. Az egyik ilyen például, hogy a többi technológiai forradalom bizonyos dolgokat könnyebbé tett az emberek számára, és bár átalakította a munkavállalói struktúrát, mennyiségileg lényegében nem befolyásolta. Mit is jelent ez? Például a mezőgazdasági forradalom az erőgépek és a munkagépek bevezetésével zajlott le.  Rengeteg ember szabadult fel a mezőgazdaságból. Azonban a nehézipar, ami a mezőgazdaságnak termelte az eszközöket és gépeket, ezt az embertömeget nagyrészt képes volt felszívni. Biztos, hogy nem volt könnyű az embereknek átállni a mezőgazdasági munkahelyekről az ipari munkahelyekre, azonban a foglalkoztatottság lényegében nem változott. Ez mindegyik technikai forradalom esetében elmondható. 

Azonban, az AI forradalom nem ilyen. Itt nem csak egyetlen ágazatot érintő technikai forradalomról van szó. Ez egy igazi teljes pályás letámadás. A jövőben már nem csak egy eszköz lesz, amit a munkahelyek a hatékonyság érdekében használnak. Lényegében úgy kell tekintenünk az AI -ra, mint egy munkavállalóra. Be fog lépni a munkaerőpiacra, ahol már az emberek nem tudnak egyik ágazatról a másikra vándorolni. Mindenhol hiány lesz a munkából, mert az AI vagy a robotika olcsóbban meg fogja oldani napi 24 órában mint egy ember 8 órában. 

A kérdés az, hogyan tudjuk kezelni ezt a problémát a jövőben? 

Ha szerencsénk van, akkor egyes gazdasági területeket nem egyszerre fogja az AI leigázni. Erre van esély, mivel ez akkor következik be, ha elkészülne az AGI (általános mesterséges intelligencia), nem beszélve az ASI -ról (mesterséges szuperintelligenciáról).

Azonban ahhoz, hogy az AGI elkészüljön, hatalmas technikai kihívásokat kell még megoldani. Még ha most úgy is tűnik a nagyközönség részére, hogy ez a küszöbön áll. A jelenlegi AI technológánk még messze nem áll úgy, hogy ez a közeljövőben megvalósulhatna.  Bár azt sem tudjuk megmondani, hogy ez a technikai áttörés mikor jön el. Ez lehet 50 de lehet 5 év is. Mindenesetre amíg nincs kész az AGI, addig még van ideje az emberiségnek. 

Ezért van még idő készülődni rá. A következő lehetőségeink vannak:

  • a kormányszintű AI szabályozásban figyelembe kell venni a munkahelyek valamilyen szintű megtartását
  • az alanyi jogon kapott jövedelem bevezetése
  • a munkanapok számának csökkentése
  • azon munkák vagy munkahelyek támogatása és bővítése, amelyek AI rezisztens munkahelyek (olyan fizikai munkahelyek, melyeknek összetett igényeknek kell megfelelniük: pl képzett szerelők, vagy olyan munkahelyek, amelyek kreativitást, etikai és empatikus képességeket igényelnek: pl kutatók, orvosok, gondozók, stb)

Egyik sem a szent Grál, és csak tompítani tudják az AI becsapódását a munkaerőpiacra. 

 

Nagy energiafelhasználás és a felhasználási költségek

 

Jelenleg az AI modell tanítás és felhasználás is elképesztően sok energiába kerül, ami várhatóan csak növekedni fog a jövőben, az egyre több felhasználó révén, és nem beszélve arról, hogy egyre több cég és hivatal fog saját modellt készíteni. Ez a rendkívüli energiafelhasználás rendkívüli költséget is jelent. De ezen kívül egy másik költség is megjelenik, mégpedig az eszközök ára. Egy-egy nagyobb modell tanításához 10.000 -nél is több processzort használnak fel, amelyeket szerverparkokba szerveznek, és amelyeket üzemeltetni kell. Nem beszélve arról, hogy a betanított modellt futtatni is kell szintén hatalmas szerverparkokban. Továbbá, a tanítási adatok beszerzésének a költsége is emelkedni fog ahogy az emberek és a vállalatok egyre jobban felismerik az adatok értékét. Ehhez képest azoknak a szakembereknek a bére, akik mindezt felügyelik és fejlesztik, szinte elhanyagolhatónak mondható.

Ezek a költségek előbb utóbb meg fognak jelenni az AI modellek felhasználásánál, a fogyasztóknál. Ami azért probléma, mert az AI egyre inkább a mindennapi élet részévé fog válni. A tanuláshoz, és a hatékony munkához is nélkülözhetetlen lesz. Azonban a fent említett növekvő munkanélküliség, a növekvő eneriga árak és AI költségek, egyre jobban szét fogják szakítani a társadalmat, mivel sokan már nem fogják tudni megfizetni azt.

Itt két dologban reménykedhet az emberiség:

Az első, hogy sikerül megépíteni az atomfúziós -azaz a termonukleáris - reaktorokat. Amely olcsóbb energiát biztosít majd. (Bár, hogy mennyire lesz olcsó, az még kérdéses) Azonban ha sikerül is, nem most fog megtörténni, hanem évtizedek múlva. Például az ITER -t nagyjából 10-15 év múlva fogják bekapcsolni, és akkor is csak egy kísérleti reaktora lesz az emberiségnek. Azaz fél évszázadon belül nem fog minket megmenteni, miközben az AI energiafogyasztása szinte hétről hétre nő, és ezzel együtt az ökológiai lábnyoma is.

A másik remény, hogy sikerül olyan AI eszközöket fejlesztenünk, amelyek energiafogyasztása töredéke a mainak. Több ilyen fejlesztés is van, azonban kérdés, hogy ezek tudják-e egyáltalán kompenzálni a növekvő komplexitáshoz és a felhasználás növekedéséhez tartozó növekvő energiaigényt?

Gazdasági szempontból nagy kérdés, hogy a jövőben mennyire tudjuk az AI energiaigényét leszorítani. Ha az AI belép a munkaerőpiacra és az emberekkel fog versenyezni, ki lesz olcsóbb? Az AI vagy az emberi munkaerő?  Az AI energiafelhasználásán és költségén fog eldölni, hogy lesz e egy olcsó AI ami elveszi a munkát, vagy egy drága AI ami kevesebb munkát fog elvenni az emberektől, de szétszakítja a társadalmat.

Az AI fontos lesz a munkához, tanuláshoz és az életvitelhez. Aki nem fogja tudni használni, az ugyan olyan digitális nomád lesz a jövőben mint az, aki most nem tudja használni a számítógépet vagy az okostelefont. De ki fogja tudni majd megfizetni az AI-t a jövőben? 

 

Szétszakadó társadalmak - gazdasági egyenlőtlenség

 

A globalizáció egyik hatása volt a gazdasági fellendülés. A szegényebb országok munkaerejének és ásványkincseinek kiaknázásán keresztül, a nyugati országok olcsó termékekhez jutottak. Ez minden fél részéről előnyös volt, mert a szegényebb országok a termékek gyártásával és értékesítésével tartós gazdasági növekedési pályára tudtak állni. A nyugatiak jövedelme pedig felértékelődött, mert olcsóbban jutottak termékekhez, és ez a teljes világgazdaságra begyűrűzött. Azaz a jövedelmük reál értéke nőtt, a cégek kihelyeztt tőkéje stabil gazdasági növekedést hozott létre. Ez az általános jólét és pozitív hangulat általános lett. Azt hittük, hogy az emberiség végre legyőzi a háborúkat és a gazdasági válságokat. Azonban ez a gazdasági növekedés napjainkban mindenhol lassul. Ez annak tudható be, hogy azokon a helyeken, ahol eddig a gyártás főleg zajlott, például Kína, India, stb. , megnőtt a jólét a gazdasági fellendülésnek köszönhetően, és így a termékek előállítása is megdrágult. Ez gazdasági visszaesést eredményez, amely egy lefelé gyűrűző spirálba ment át. Ez a gazdasági visszaesés belpolitikai és külpolitikai válságok sorát okozza a világon mindenhol. Ami megnöveli az autokrata, diktatórikus  és nacionalista rendszerek előtörésének az esélyét, és a külpolitikában konfliktusokat, fegyveres összecsapásokat és háborúkat okoz most és a jövőben. 

Miért is érdekes mindez? Válságok és háborúk eddig is voltak, de minden történelmi korszak ki tudott lépni ebből, és növekedési pályára tudott újból állni. Tehát mi is itt a probléma?

Az AI egy lefelé tartó történelmi korszak kezdetén jelenik meg, amelyet nem csak katalizálja, de akár tartosíthatja is a negatív folyamatokat.  Ezt több tényező együttes hatása fogja kiváltani, amelyek oka többé kevésbé az AI lesz. 

Diktatórikus rendszerek stabilitása. 

Amint fentebb már említettem, a gazdasági válságok elősegítik a diktatórikus rendszerek előretörését, hatalomra jutását. Gondoljunk csak Hitler hatalomra jutására, vagy a Nagy Vörös Októberi forradalomra, amely a Sztálini diktatúrához vezetett. Azonban ezek idővel mind meg is buktak. 

Francis Fukuyama a nyolcvanas években írt a “A történelem vége és az utolsó ember” könyvében arra a következtetésre jut, hogy a diktatórikus rendszerek nem lehetnek hosszú távon stabilak. Végső soron demokratizálódni fognak. 

Amikor Fukuyama ezt írta, még akkor kezdett lendületet venni a számítástechnika, és az internet is még csak gyerekcipőben járt. A világ azóta megváltozott. A számítógépek a mobiltelefonok, az internet és kamerák segítségével minden ember digitális lábnyoma rendkívül jól és hatékonyan nyomon követhető. 

Ez azt jelenti, hogy az AI segítségével diktatórikus politikai rendszerek rendkívüli hatalmat kaptak a rendszer fenntartásához. Ez az eszközrendszer a jövőben egyre nagyobb hatékonyságú lesz. 

A másik ok, amiért stabilabbak lesznek a diktatórikus rendszerek, az AI által okozott permanens gazdasági problémák - pl a munkanélküliség, dráguló AI - , a már meglévő gazdasági spirálra fognak ráépülni. A társadalom egyre jobban szétszakad egy olyan lefelé tartó spirálban, amelynek nem lehet látni a végét.

Folytatása következik...

AI félelmek és veszélyek - 1. rész

AI (MI) hátrányok

dall_e_2024-12-20_13_12_22_a_dramatic_and_symbolic_scene_depicting_artificial_intelligence_gaining_self-awareness_the_image_shows_a_humanoid_ai_robot_in_a_high-tech_laboratory.webpSokszor hallunk a mesterséges intelligencia felhasználás hátrányairól és veszélyeiről. Azonban még ha valaki hallott is ezekről, vagy fel is tudja sorolni ezeket, nem igazán látják ezek mélységét, sőt eltérő véleményeket és értékeléseket hallhatunk, még az MI-kel foglalkozó szakemeberektől is. Habár mindenki egyetért azzal, hogy vannak veszélyei. 

Ezeket a veszélyeket a mai generációnak minél jobban meg kellene értenie, mivel ha nem értjük, nem ismerjük fel, akkor kezelni sem tudjuk.  Valószínűleg ez a cikk sem tudja teljes mélységben ezeket a problémákat megvilágitani és a jövőbeni alakulásukat megjósolni, inkább csak gondolatébresztésre vállalkozik.

Kezdjük pár alapfogalommal, de aki már nagyjából tisztában van azzal, hogy mi az AGI, és  a GenAI az ugorjon a következő bekezdéshez.

A mesterséges intelligencia, technológiai szinten elég tág halmazt jelent, a szakértő rendszerektől a neurális hálózatokig. Ez az első dolog, ami zavart okoz az emberek számára.  Ez az AI halmaz két részre osztható: Keskeny MI (artificial narrow intelligence, ANI) , a másik része a generatív mesterséges intelligenciák (GenAI). Az elsőre jó példa lehet például egy ujjlenyomat olvasó, ami csak egy eszköz. A másodikra a chatGPT lehet példa.  

A chatGPT (vagy csak GPT)  a nagy nyelvi modellek családjába tartozik (Large Language Modell, LLM), amely család napról-napra egyre népesebb. Ezek azok az MI-k  amelyek egy jövőbeni általános mesterséges intelligenciát (artificial general intelligence, AGI) céloznak meg, amely esetében az emberi intelligenciával megegyező, vagy annál nagyobb intelligencia a cél minden olyan képeségnél, amely az ember sajátja. Például: látás, hallás, beszéd stb.

Azaz az embert hatékonyan kiváltó intelligencia az AGI, amely bár még nem létezik, de a közeljövőben már elképzelhető. Az az intelligencia, amely már az AGI-t is meghaladja, az az ASI (mesterséges szuperintelligencia, (Artificial Superintelligence)).

A cikk a GenAI és a majd eljövendő AGI és ASI -val foglalkozik. 

 

AI (MI) hátrányok

 

A tárgyalt hátrányok és veszélyek a jelenlegi AI hátrányai, vagy azok, amelyeket most látunk, de az AI technológiája szélsebesen változik.  Ezen hátrányok és veszélyek kockázata is folyamatosan változik, de akár újak is keletkezhetnek. Bár a nagy nyelvi modellek, mint a chatGPT, a jelenlegi állapotukban zsákutca az általános AI (AGI) eléréséhez, de ők képezik a jövőbeni fejlődés alapjait. Azok a technológiák amelyen alapulnak  (Deep learning, GPT, stb) azok a jövő AI alapjait is alkotni fogják. A most tárgyalt hátrányok szerves részeit képezik ezeknek a technológáknak, és így a jövő mesterséges intelligenciái is nagy valószínűséggel rendelkezni fognak ezekkel. 

Tehát milyen hátrányokról és veszélyekről beszélünk:

  • Elfogultság és diszkrimináció
  • Gazdasági kérdések
  • Hallucináció
  • Adatvédelmi és biztonsági aggályok
  • Etikai kérdések
  • Kulturális elsivatagosodás

Ha ezekre a veszélyekre rákeresünk a chat GPT -nél, vagy  az interneten, akkor körülbelül a következőket találjuk. A hozzá tartozó magyarázatokat is megadják, ami általában egy olyan meghatározás  amely elég semmitmondó.  Például az elfogultságra ezt adja a chatGPT: “Az MI-rendszerek gyakran korábbi adatok alapján tanulnak, amelyek maguk is tartalmazhatnak előítéleteket. Ez olyan döntéseket eredményezhet, amelyek egyes csoportokat hátrányosan érintenek”

 

Elfogultság és diszkrimináció

 

Az ember az gondolja: Ok értem, elfogult lesz. De, hogy ez mit is fog jelenteni a valóságban, azt ezek alapján nem tudjuk elképzelni. Ami azért probléma, mert nem tekintjük veszélynek. Ezekkel csak nagyon kevés forrás foglalkozik érthetően. Sőt néha maguk a témával  foglalkozók sem láthatják előre, hogy miként fog problémát jelenteni a jövőben.

Ezért az Európai Unió ezt úgy szabályozza, hogy az AI-kat kritikus, magas kockázati helyeken - pl banki, ügyviteli rendszerekben - nem, vagy csak korlátozottan lehet használni, mivel az AI nem transzparens módon dönt. Döntéseinek okai nem követhetőek. 

De mik is ezek az előítéletek? Az AI-nak kétféle előítélete lehet:

  • a tanult adatokban már meglévő előítéletek, pl faji, politikai hovatartozás, stb előitélete
  • statisztikai alapú, prediktív előítéletek

Az első esetben a bevitt adatok alapján történő előítéletességről, torzulásról van szó. Például egy AI az 1700-1800 -as évek dokumentumai alapján úgy befolyásolódhat, hogy bizonyos esetekben akár faji előítéleteket, megkülönböztetéseket tesz. Miközben a mai világ számára ez nem elfogadott. Ne felejtsük el, hogy az AI mindig meglévő dokumentumok alapján van oktatva, azaz mindig a múltat látja, és a múltról vannak információi, mert mire újra tanítanak egy modelt, minden tudása csak a tanításának kezdetéig fog elérni az időben. Ez az egyik probléma, amire a AI kutatók megpróbálnak különböző módokon megoldást találni. 

Azonban a tanult anyagok mennyisége sem mindegy. Például a faji szegregációról szóló anyagok mennyisége lehet, hogy jóval több, mint a woke mozgalom anyagai, mivel hosszabb időszakot is ölel fel. Ezenk kívül ki tudja megmondani, hogy egy adott szituációban melyik szemlélet fog győzni az AI válaszaiban és döntéseiben? 

MIvel az AI-nak etikai érzéke nincs, ezért arra nem tud támaszkodni. Így a nagy nyelvi modellek fejlesztői ezt úgy próbálják orvosolni, hogy különböző filtereket (szűrőket) adnak hozzá a modellhez, amely befolyásolja a modell válaszát. Azonban ez soha nem lehet teljeskörű, mivel emberek adják hozzá véges mennyiségben. Nem beszélve arról, hogy ezek a szűrők a modell felhasználhatóságát is csökkenthetik. A nyilvános modellek esetén ezért szoktak olyanokat is kiadni, amelyek ezekkel a szűrőkkel nem rendelkeznek. Ezeknél a modelleknél az azt beépítő és felhasználó alkalmazás-fejlesztőknek kell ezeket kezelni.

A második eset amikor statisztikai alapon történik a megkülönböztetés. Például, egy biztosító által használt AI drágábban ad egy lakásbiztosítást, mert olyan környéken élünk. Mondhatjuk, hogy ez egy elfogadott biztosítás kockázatkezelés, amely valamilyen statisztikai szempont szerint besorolja az autó, egészségügyi- és lakás biztosításunkat. Azonban, az AI ezt maximálisan ki tudja használni. Gondoljunk bele, hogy a biztosítónak megadott információk alapján nem csak azt mondja meg, hogy mekkora a biztosítási kockázat, hanem profilozás alapján megállapítja a munkánk, lakóhelyünk, a születési időnk, családi állapotunk stb alapján, hogy mennyi az a maximális összeg, amelyet még hajlandók vagyunk kifizetni a biztosításra úgy, hogy még nem megyünk át másik biztosítóhoz. Itt ne csak arra gondoljunk, hogy ha több a jövedelmünk, akkor többet is  kell fizetünk. Például, az AI felismeri, hogy szorult helyzetben vagyunk és más szolgáltatást nem tudunk igénybe venni. Kihasználhatja a rászorultságunkat. Milyen lenne, ha egy gyógyszer árát úgy állapítanák meg, hogy mennyit tudunk érte fizetni és mennyire van rá szükségünk. Nem lenne túl jó.

Ez az, amikor kifejezetten visszaélnek a cégek az AI predikciós képességével. Azonban ennek nem mindig kell tudatosnak lennie. Egy AGI -nak megadott általános cél - pl. egy termék, szolgáltatás eladásainak maximalizálása - is ide vezethet, miközben közvetlenül nem ez volt a cél. Egy általános célokat is végrehatjó AI az optimalizáció miatt előítéletes lesz statisztikai okokból, még ha erre nem is kapott utasítást. Az AI -nak nincsenek etikai korlátai, ezért minden korlátot kívülről kell meghatározni. Ezekkel a korlátokkal azonban az a baj, ahogy már említettem, hogy nem feltétlenül tudnak lefedni minden lehetséges esetet. És mivel az AI nem transzparens módon gondolkodik, ezért nem lehet követni, hogy mit miért tesz. Nem lehetünk biztosak benne, hogy valamilyen irányban nem elfogult. 

MInt említettem, az Európai Unió emiatt korlátozza az AI  felhasználást. De ne feledjük, hogy  vannak országok, amelyek kormányzati szinten használják ezt az emberek kategorizálására, besorolására. Lásd: kínai pontozásos rendszer.

 

Folytatása következik...

süti beállítások módosítása