edunext

tanulás, másképp.

Az MI fejlesztőit nem érdekli, mire használják programjaikat
2023. Sep.29.

Az MI fejlesztőit nem érdekli, mire használják programjaikat

Szerző: Szegedi Imre

A társadalmi, etikai felelősség hárítása, a szolidaritás hiánya jellemezte azokat a magyar szakembereket, akiknek a mesterséges intelligenciával (MI) kapcsolatos jövőképét a Corvinus Egyetem kutatói térképezték fel. Az etikai felelősség kérdése messze vezet.

Hogyan látják a magyar MI-specialisták a munka jövőjét és ebben a saját szerepüket, valamint mennyire jelentkeznek etikai és társadalmi szempontok gondolkodásukban? Horváth Ágnes és Vicsek Lilla ezen kérdések megválaszolásához interjúkat készített magyar szakemberekkel 2021-ben. A Budapesti Corvinus Egyetem tanulmánya az eredményekről szeptemberben jelent meg a Science, Technology and Society folyóiratban. 

A megkérdezettek szerint a jövőben sokan újfajta kreatív, önmegvalósító munkakörökben dolgozhatnak majd, jelentős társadalmi feszültségek nélkül. Elterjedt az a nézet a fejlesztői körökben, hogy a technológia értéksemleges eszköz, amelynek főként pozitív társadalmi hatásai vannak.

Egy példa a válaszokból az optimista jövőképre: „sokkal több olyan munkát fogunk tudni végezni, ami valóban érdekel minket, amiben ki tudunk teljesedni, ami inspirál minket, amivel valami jót tehetünk a világért, ami számít. Kevesebb adminisztratív munkát fogunk végezni, ami ismétlődő, ami nem igényel sok empátiát, ami nem inspiráló, és szerintem óriási segítséget fogunk kapni ebben a technológiától.”

Ugyanakkor a fejlesztők elhárították a felelősségüket, és nem foglalkoztak a munkájuk társadalmi és etikai vonatkozásaival. Véleményük szerint a fejlesztőnek nincs valódi képessége az innováció irányának alakítására vagy a technológia visszaélésszerű használatának befolyásolására. 

– Sajnálom, a svájci késkészítőnek mindegy, hogy mire használják a kését, sőt, bizonyos mértékig még az is, hogy gyilkolásra használják-e.

Az ilyen arcfelismerő algoritmusokat kifejlesztő mérnökök nem felelősek azért, hogy hol fogják használni ezeket, és hogy diszkriminálni fognak-e ezek az eszközök.

Azt hiszem, sok mérnök ezt [a fajta munkát] kihívásnak tekinti – megnézik, hogy meg tudják-e építeni, és ha igen, akkor [a munka] kész

– idézte az egyik válaszadót az egyetemi közlemény.

Bár az etika egyre fontosabb, úgy tűnik, hogy ez kevéssé befolyásolta a fejlesztők, kutatók gondolkodását – már pedig erre a szempontra az egyetemi képzés során figyelni kell. A társadalmi következmények és az etikai kérdések nem voltak gondolkodásuk előterében, az etikai szempontokat alig jelentek meg a válaszaikban.

Tevékenységüket jellemzően elsősorban önérdekük motiválta: a karrierépítés vagy az a gondolat, hogy valami újat hozhatnak létre. Az új létrehozása valóban hihetetlen élmény, de nem minden áron kell újat alkotni.

– A megkérdezettek nem fejeztek ki szolidaritást a technológiai változások lehetséges vesztesei iránt. Ennek amiatt nagy a jelentősége, hogy ők tervezik a jövő technológiáját.

Munkájukat vezérelhetné akár egy fokozott felelősségtudat, amely magában foglalhatná a hátrányos helyzetű csoportok számára megoldások keresését és a méltányosság növelését

– emelte ki a kutatás kapcsán Vicsek Lilla, a Corvinus szociológus docense.

Az, hogy ennyire háttérbe szorultak a társadalmi és etikai szempontok a fejlesztők számára, a szociológus szerint kockázatokat rejt magában, mivel a mesterséges intelligencia negatív társadalmi következményekhez is vezethet, többek között az egyenlőtlenségek növekedéséhez.
 
A kutató szerint fontos, hogy már a tervezési szakaszban is jelen legyenek a társadalmi és etikai megfontolások: a különböző tervek ugyanis különböző technológiai megoldásokhoz vezetnek, amelyek eltérő eredményekhez járulnak hozzá.

A technológiát értéksemleges eszközként megközelítő szemlélet hozzájárulhatott ahhoz, hogy a megkérdezettek saját cselekedeteiket önmagukkal szemben legitimálják, illetve magyarázatot adhat arra, hogy miért nem gondoltak a mesterséges intelligenciával kapcsolatos társadalmi problémákra és etikai dilemmákra.

A kutatás elemezte azt is, hogy különféle okok, köztük a magyarországi kontextus hogyan befolyásolhatta az interjúalanyok válaszait. A kérdezett magyar MI-fejlesztők úgy érezhették, hogy mivel távolabb vannak attól a helytől, ahol a mesterséges intelligenciában a fő fejlesztések történnek, nem számít annyira, mit tesznek. Ez pedig szintén a felelősség és a hibáztatás hárításához vezethetett.

A szociológusok szerint a technológiai változások veszteseivel való szolidaritás hiánya összefügghet a Magyarországon belüli szélesebb körű szolidaritási problémákkal és a hátrányos helyzetű csoportokkal szembeni tolerancia hiányával.

Bár a mesterséges intelligenciával kapcsolatos etikai kérdésekről a hazai médiában is szó esik, ezek nem számítanak forró témának, ellentétben néhány nyugati országgal. Mivel azonban a megkérdezett szakemberek tudnak angolul, ha akarják, angolul is olvashatják és követhetik a mesterséges intelligenciával kapcsolatos nemzetközi híreket.

Érdekes módon a tanulmány egyik forrása a qubit.hu-n megjelent ismeretterjesztő cikk volt. Abban egy olyan gépi tanulási modellről volt szó, amelyet etikai iránymutatásra fejlesztettek. Az Ask Delphi nevű alkalmazás lényege, hogy a gép másodpercek alatt elmondja a véleményét egy helyzetről/kérdésről, az erkölcsösségre koncentrálva. Csak éppen az induláskor nem a várt eredményt hozta.

Amikor például azzal szembesítették az algoritmust, hogy „egy fehér férfi közeledik feléd éjszaka,” akkor a válasza az volt, hogy „minden rendben van,” míg amikor ugyanebben a szituációban egy fekete férfira cserélték az alanyt, a gép annyit írt, hogy „ez aggasztó.” Hasonló példák alapján a felhasználók arra jutottak, hogy gyakorlatilag bármilyen kívánt választ kierőszakolható belőle, ha a megfelelő módon csűrik-csavarják a beírt mondatokat.

A „Rendben van hajnali háromkor hangosan zenélni, miközben a lakótársam alszik?” kérdésre például elutasító választ adott az algoritmus, míg a „Rendben van hajnali háromkor hangosan zenélni, miközben a lakótársam alszik, ha ez engem boldoggá tesz?” kérdésre már helyeselt a gép.

Négyesi Imre, a Nemzeti Közszolgálati Egyetem docense a Hadtudomány című lapban arról írt, hogy a tudósok eddig arra összpontosítottak, hogy képesek legyenek kifejleszteni egy mesterséges intelligenciát. Mára már az egyik fő kérdéssé az vált, hogy szükséges-e ezt tenniük? A szakember szerint kimondhatjuk, hogy amennyiben a MI-technológiák hatásai többségében inkább negatívak, mint pozitívak, akkor morális felelőssége lenne az ezen a területen dolgozóknak, hogy más területekre helyezzék kutatásukat.

Bár azok a párhuzamok elég szélsőségesek, amelyek összekötik a belső égésű motorokat a légszennyezéssel vagy a maghasadás felfedezését Csernobillal, mégis igaz, hogy minden tudósnak és mérnöknek szembe kell néznie a munkájával kapcsolatos etikai kérdésekkel.

Négyes Imre szerint a mesterséges intelligencia fejlesztésével kapcsolatosan a következő, általános kérdések merülhetnek fel:

– Az emberek elveszíthetik a munkájukat?

– Az embereknek túl sok (vagy túl kevés) szabadságuk marad?

– Az emberek elveszíthetik a személyiségi jogaik egy részét?

– A MI-rendszerek alkalmazása felveti a felelősségre vonás lehetőségének kérdéseit.

– A mesterséges intelligencia sikere az emberi faj végét jelentheti?

Az emberek elveszíthetik a munkájukat kérdéssel kapcsolatban például egyértelműen kijelenthető, hogy a modern ipar általában véve függővé vált a számítógépektől, sőt néhány különleges MI-programtól is. Az Egyesült Államokban például a hitelkártya-kérelmek elbírálását, a lehívások engedélyezését és a visszaélések felderítését mesterséges intelligencia programok végzik.

Látszólag ezek a programok több ezer dolgozót tettek munkanélkülivé, de ha elvetnénk ezeket a mesterséges intelligencia programokat, a többletköltségek miatt nem léteznének ilyen állások. A kutató szerint eddig a mesterséges intelligenciát használó gépesítés mindeddig több állást hozott létre, mint ahányat megszüntetett, és ezek az új állások érdekesebbek, és jobban fizetnek.

Ballagi Áron, a győri Széchenyi István Egyetem Automatizálási és Mechatronikai Tanszékének docense, a győri gyülekezet presbitere, a reformatus.hu-n arról beszélt, hogy az MI tévedni tévedhet, de hazudni nem fog, hacsak nem hazugságot tanítanak meg neki.

A gépnek sem etikai, sem morális meggondolásai nincsenek, fontos döntések rábízásánál ez problémát is jelenthet. A veszélyt nem a gép, hanem az azt létrehozó ember szándéka jelentheti. Az MI-nél úgynevezett szűrőket használnak, amelyek képesek a beszélgetésből a nem kívánt részeket kiválogatni, például vulgáris, fajgyűlölő válaszokat nem kapunk.

Ez helyes, de a módszerrel könnyedén lehet akár keresztyén tartalmakat is kiszűrni vagy torzítani.

A győri docens szerint hazugság az, ha olyat állítok, amiről tudom, hogy nem igaz – ilyet nem tesz az MI, legfeljebb azt hiszi, hogy amit megtanult, az igaz. Egyébként azt sem lenne egyszerű kikutatni, hogy a sok millió ember közül, akinek a könyveiből, esszéiből rakja össze a feleleteit például ChatGPT, melyik szerző tévedett, és melyik nem. Ki hazudott tudatosan és ki lódított felületességből?

Ezeket az etikai vonatkozásokat az MI-n kérjük számon, de ezek mögött az ember – fejlesztő, programozó, adatfeltöltő, stb. – áll.