2. Megoldások az AI várható negatív hatásainak kezelésére

A vitatás számos résztvevője megoldásokat kínált az AI által létrehozott aggasztó jövőre. Közülük: 1) a határokon átnyúló együttműködés és az érdekelt csoportok javítása; 2) politikák kidolgozása annak biztosítására, hogy az AI fejlesztése az emberek és a közjó gyarapítására irányuljon; és 3) a gazdasági, politikai és oktatási rendszerek prioritásainak megváltoztatása annak érdekében, hogy az egyének képesek legyenek előre lépni a „robotokkal való versenyben”.

Számos válaszadó felvázolta az általános törekvéseket:

Andrew Wycoff, az OECD tudományos, technológiai és innovációs igazgatóságának igazgatója ésKarine Perset,közgazdász az OECD digitális gazdaságpolitikai részlegében, megjegyezte,'Tizenkét év múlva minden ágazatban profitálhatunk a döntések és előrejelzések radikálisan javított pontosságából és hatékonyságából. A gépi tanulási rendszerek aktívan támogatják az embereket munkájuk és játékuk során. Ez a támogatás nem lesz látható, de átható - mint az áram. Amint a gépek képessége érzékelni, tanulni, természetes módon kölcsönhatásba lépni és autonóm módon cselekedni fog, elmosódik a különbség a fizikai és a digitális világ között. Az AI rendszerek összekapcsolódnak és együttműködnek az emberi igények és érzelmeink megjóslásában és alkalmazkodásban. Az egyre növekvő konszenzus, miszerint a mesterséges intelligenciának a társadalom egésze javát kell szolgálnia, felhívásokra hívja fel a mesterséges intelligencia-rendszerek elfogadásának megkönnyítését az innováció és a növekedés előmozdítása, a globális kihívások kezelése, valamint a munkahelyek és a készségek fejlesztése érdekében, ugyanakkor megfelelő biztosítékokat hoz létre ezek biztosítására. a rendszerek átláthatók és megmagyarázhatók, és tiszteletben tartják az emberi jogokat, a demokráciát, a kultúrát, a megkülönböztetésmentességet, a magánélet védelmét és az ellenőrzést, a biztonságot és a biztonságot. Tekintettel az akkor futó hálózataink és alkalmazásaink globális jellegére, javítanunk kell az országok és az érdekelt csoportok közötti együttműködést, hogy az AI által bemutatott legfontosabb lehetőségek és kérdések közös megértése és koherens megközelítése felé haladjunk. Ez nem különbözik túlságosan a háború utáni atomenergia-vitától. Óvatosan kell lépnünk a mesterséges intelligencia felé is, és kerülnünk kell a jövőbeni mesterséges intelligencia képességeinek felső határára vonatkozó jelenlegi feltételezéseket ”.

Wendy Hall, a Southamptoni Egyetem informatikai professzora és a Web Science Institute ügyvezető igazgatója azt mondta: '2030-ra úgy gondolom, hogy az ember-gép / AI együttműködés általánosságban felhatalmazza az embereket. Sok munkahely megszűnt, de sok új munkahely jött létre, és a gépeknek / mesterséges intelligenciának segítenie kell a dolgok hatékonyabb és eredményesebb elvégzését mind otthon, mind a munkahelyen. Hitel ugrás azt gondolni, hogy 2030-ig megtanultuk felelősségteljesen felépíteni a mesterséges intelligenciát, és megtanultuk, hogyan kell az emberiség számára jó módon szabályozni a mesterséges intelligencia és a robotika iparát. Lehet, hogy 2030-ig nincs meg minden válaszunk, de addigra jó úton kell haladnunk.

Hiszek az ember-gép / AI együttműködésben, de a kihívás az, hogy az emberek alkalmazkodhatnak-e gyakorlatainkhoz ezekhez az új lehetőségekhez. Ian O’Byrne

Ian O’Byrneaz írástudásra és a technológiára összpontosító egyetemi adjunktus a Charlestoni Főiskolán azt mondta: 'Hiszek az ember-gép / AI együttműködésben, de a kihívás az, hogy az emberek alkalmazkodhatnak-e gyakorlatainkhoz ezekhez az új lehetőségekhez'.



Arthur Bushkin, egy informatikai úttörő, aki az Advanced Research Projects Agency Network (ARPANET) és a Verizon elődeivel dolgozott, azt írta: 'A fő kérdés a társadalom kollektív képessége lesz, hogy megértse, kezelje és reagáljon a technológia következményeire és következményeire'.

Daniel Obam, az információs és kommunikációs technológia szakpolitikai tanácsadója így válaszolt: 'A mesterséges intelligencia fejlesztése során az etikus magatartás kérdése a legfontosabb. Az AI lehetővé teszi a hatóságok számára, hogy elemezzék és kiosztják az erőforrásokat, ahol a legnagyobb szükség van. A mesterséges intelligencia megváltoztatja a munkavégzés és az utazás módját is.… Az adatokat bányászó és elemző digitális asszisztensek segítenek a szakembereknek abban, hogy tömör döntéseket hozzanak többek között az egészségügyben, a gyártásban és a mezőgazdaságban. Az intelligens eszközök és a virtuális valóság képessé teszik az embereket arra, hogy világosabban interakcióba lépjenek történelmi és tudományos kérdésekkel, és tanuljanak azokból. Az AI segítségével a hatóságok képesek lesznek megelőzni a bűncselekményeket, még mielőtt azok megtörténnének. A kiberbiztonságnak élen kell állnia annak megakadályozására, hogy a gátlástalan személyek mesterséges intelligenciát alkalmazzanak az emberi faj kárt vagy gonosz elkövetésére ”.

Ryan Sweeney, az Ignite Social Media elemzési igazgatója megjegyezte: 'Technológiánk folyamatosan növekszik, de társadalmunk, kultúránk és gazdaságunk nem olyan gyorsan alkalmazkodik. Vigyáznunk kell arra, hogy az AI előnyei egyesek számára ne osszák tovább azokat, akik esetleg nem engedhetik meg maguknak a technológiát. Mit jelent ez kultúránk számára, mivel több munkahely automatizálódik? Meg kell vizsgálnunk a jelenlegi osztályrészre gyakorolt ​​hatást ”.

Susan Mernit, a The Crucible ügyvezető igazgatója, a Hack the Hood társalapítója és igazgatósági tagja így válaszolt: 'Ha az AI olyan emberek kezében van, akik nem törődnek a méltányossággal és az inklúzióval, akkor ez egy újabb eszköz lesz a profit maximalizálására néhány ember számára '.

A jelentés következő három szakasza azokra a megoldásokra összpontosít, amelyeket a válaszadók leggyakrabban emlegetnek erre az esetre.

Javítsa az emberi együttműködést a határokon átnyúlóan és az érdekelt csoportokkal

Számos szakértő szerint meg kell találni a módját annak, hogy a világ lakói közös megértésre jussanak a mesterséges intelligencia és a digitális élet miatti aggodalmakról, és megállapodásra jussanak annak érdekében, hogy koherens megközelítéseket teremtsenek a mesterséges intelligencia kihívásainak kezelésére.

Danil Mihailov, a Wellcome Trust adataiért és innovációért felelős vezetője így válaszolt: 'Az emberi / mesterséges teher kölcsönhatásának pozitív jövőjét látom 2030-ban. Területemen, az egészségügyben óriási lehetőség rejlik a nagy adatelemzés és a genomika fejlődésének összefolyásában a személyre szabott javítani a diagnózist, a kezelést és a kutatást. Noha optimista vagyok az emberi alkalmazkodási, tanulási és evolúciós képességekkel kapcsolatban, a technológiai innováció nem mindig megy zökkenőmentesen. Ebben tanulhatunk a korábbi technológiai forradalmakból. Például (Bank of England vezető közgazdásza) Andy Haldane helyesen mutatott rá arra, hogy az eredeti 19. századi „ludditáknak” megalapozott sérelme volt. Súlyos munkahely-veszteségeket szenvedtek el, és egy generáció időtartama kellett ahhoz, hogy elegendő munkahely létrejöjjön az elveszettek megelőzéséhez. Emlékeztetõ arra, hogy az új technológiák bevezetése aszimmetrikusan kedvez az embereknek, egyesek szenvednek, míg mások hasznot húznak. A jövő lehetőségeinek kiaknázásához ezt tudomásul kell vennünk, és elegendő biztonsági hálót kell készítenünk, például jól finanszírozott felnőttképzési kezdeményezéseket, hogy egy példát említsünk. Fontos továbbá, hogy őszinte párbeszéd alakuljon ki a szakértők, a média és a nyilvánosság között személyes adataink társadalmi-jó projektekhez, például az egészségügyhez való felhasználásáról, vállalva mind a cselekvés kockázatát - például a magánéletre gyakorolt ​​hatásokat -, mind a a nem cselekvés alternatív költségei. Tény, hogy jelenleg az egész világon az egészségügyi rendszerek életét veszítik el, és még a mai technológiával is meg lehetne menteni, nem is beszélve a 2030-as technológiáról.

Edson Prestes, a Rio Grande do Sul Szövetségi Egyetem professzora és robotikai igazgatója így válaszolt: 'Meg kell értenünk, hogy minden területnek (technológiai vagy nem) két oldala van: egy jó és egy rossz. A rossz elkerülése érdekében véglegesen meg kell teremtenünk és elő kell mozdítanunk az AI / robotika kultúráját. Ösztönöznünk kell az embereket, hogy együtt érezzenek másokkal. Gondolkodnunk kell a potenciális kérdéseken, még akkor is, ha ezek kicsi a valószínűsége. Futuristáknak kell lennünk, előre látva a lehetséges negatív eseményeket és azt, hogy hogyan lehet ezeket megkerülni, mielőtt azok megtörténnének. Rendelkezéseket / törvényeket kell létrehoznunk (nemzeti és nemzetközi szinten) az emberek, más élőlények és a környezet számára globálisan káros helyzetek kezelésére. Az empátia alkalmazásával komolyan gondolkodnunk kell önmagunkon és másokon - ha a technológia hasznos lesz számunkra és másoknak, és ha nem okoz kárt. Nem dolgozhatunk ki megoldásokat anélkül, hogy az embereket és az ökoszisztémát a fejlődés központi elemének tekintenénk. Ha igen, akkor a mesterséges intelligencia / robotika terjedése a jövőben csökkenti a negatív hatásokat, és hatalmas szinergiát teremt az emberek és a környezet között, javítva az emberek mindennapi életét minden területen, a környezeti fenntarthatóság elérése mellett. ”

Adam Nelson, az egyik „öt legnagyobb” globális technológiai vállalat szoftverfejlesztője elmondta: „Az ember-gép / AI együttműködés rendkívül erőteljes lesz, de az emberek továbbra is irányítani fogják a szándékot. Ha az emberi kormányzás nem javul, az AI csupán hatékonyabbá teszi a világot. De a célok nem az emberi jólét lesznek. Vagyoni összesítés lesz a hatalmon lévők számára ”.

Wendy Seltzer, a stratégiai vezető és a World Wide Web Consortium tanácsadója, megjegyezte: 'Enyhén optimista vagyok abban, hogy jobb techno-szociális irányítási mechanizmusokat fogunk kidolgozni. oly módon, hogy ha az AI nem javítja az emberek életét, akkor korlátozzuk annak felhasználását ”.

Jen Myronukválaszadó, aki nem adott meg azonosító részleteket, azt mondta: 'Az optimista véleménye magában foglalja egy új típusú ISO-szabvány -' kódolt emberi jogok '- létrehozását és megvalósítását, mint funkcionális adatsort az exponenciális és a fejlett technológiák mellett. A globális emberi jogok, valamint az ember-gép / mesterséges mesterséges technológia együttes méreteket ölthet és kell. Ha az emberi tapasztalat kiterjesztéseként alkalmazzák, akkor az ember-gép / AI együttműködés forradalmasítja a körülöttünk lévő világ megértését.

Fiona Kerr, az Adelaide-i Egyetem ideg- és rendszerbonyolultságának professzora így kommentálta: 'A válasz nagyban függ attól, hogy mit döntünk a globális egészség egyenlőségének biztosítása körüli nagy kérdésekkel kapcsolatban; megegyezéssel arról, hogy most hogyan néz ki a termelékenység és az érték, részben a globális bér által támogatva; a technológiai nyereség igazságos újraelosztása révén mind a nemzetközi, mind a nemzeti társadalmi tőkébe való befektetés; átfogó megbeszélésen keresztül a politika szerepéről a technológusok és vállalkozások jutalmazásában, hogy minőségi partnerségeket építsenek ki az emberek és a mesterséges intelligencia között; az ember-ember és az ember-technológiai interakció neurofiziológiai eredményeinek megértésének növekedése révén, amely lehetővé teszi számunkra, hogy a legjobban eldöntsük, mit ne alkalmazzunk a technológiákkal, amikor az ember hatékonyabb, és hogyan biztosíthatjuk, hogy maximalizáljuk a technológia csodáit, mint a emberközpontú jövő ”.

Benjamin Kuipers, a michigani egyetem informatikus professzora ezt írta: „Számos kritikus választás előtt állunk a pozitív és a negatív jövő között.… A technológia fejlődése jóval több forrást fog biztosítani; a legfontosabb döntés az, hogy ezeket az erőforrásokat felhasználják-e az egész emberiség érdekében, vagy pedig egyre inkább egy kis elit birtokolja őket. A technológia fejlődése jelentősen megnöveli a kommunikáció és a felügyelet lehetőségeit. A kérdés az, hogy találunk-e módot a bizalom növelésére és az emberek közötti produktív együttműködés lehetőségeire, vagy a hatalomra törekvő egyének megpróbálnak-e dominálni a bizalom és az együttműködés csökkentésével. Középtávon a növekvő technológia hatékonyabb eszközöket kínál a társadalom emberi, vállalati vagy akár robot szereplői számára. A tényleges problémák arról szólnak, hogy a társadalom tagjai hogyan lépnek kapcsolatba egymással. Pozitív forgatókönyv szerint sokféle célból fogunk kölcsönhatásba lépni a társalgási intelligenciákkal, és még akkor is, ha a mesterséges intelligencia egy vállalathoz tartozik, bízhatunk abban, hogy a közgazdaságtanban úgy hívják, hogy „bizalmi” álláspontot mutat mindkettőnkkel szemben. Vagyis az általunk nyújtott információkat elsősorban egyéni hasznunkra kell felhasználni. Bár tudjuk, és kifejezetten mondják nekünk, hogy összesített információink értékesek a vállalat számára, bízhatunk abban, hogy nem manipulációnkra vagy hátrányunkra fogják felhasználni ”.

Denise Garcia, az Északkeleti Egyetem politológia és nemzetközi ügyek docense elmondta: „Az emberiség összefog majd, hogy együttműködjön”.

Charles Geiger, az ENSZ Információs Társadalom Világtalálkozójának végrehajtó titkárságának vezetője megjegyezte: 'Amíg rendelkezünk demokratikus rendszerrel és szabad sajtóval, ellensúlyozhatjuk az AI lehetséges fenyegetéseit'.

Warren Yoder, a Mississippi Közpolitikai Központ régóta igazgatója, jelenleg a Mississippi Főiskola oktatója optimistán válaszolt: 'Az emberi / mesterséges együttműködés együttműködése… növeli emberi képességeinket és növeli az emberiség anyagi jólétét. Ugyanakkor az oktatás és az egészség szintjének egyidejű növekedése lehetővé teszi számunkra, hogy új társadalmi filozófiákat dolgozzunk ki, és átdolgozzuk politikánkat az emberi jólét átalakítása érdekében. Az AI növeli a régi társadalmi rend megzavarását, szükségessé és valószínűbbé teszi az új átalakulást, bár nem garantált.

Wangari Kabiru, a kenyai Nairobiban található MitandaoAfrika blog írója megjegyezte: '2030-ban az AI és a technológia fejlõdése nem fogja a legtöbb embert jobb helyzetben hagyni, mint ma, mert globális digitális küldetésünk nem elég erõs és nem elég elvû ahhoz, hogy megbizonyosodhassunk róla. hogy „nem, senki sem marad el” - talán szándékosan. Az az óriási pozitív hatás, amely lehetővé teszi az emberek számára, hogy többet érjenek el az élet szinte minden területén - az ember-gép / mesterséges intelligencia együttműködés teljes előnyeit csak akkor lehet tapasztalni, ha az akadémia, a civil társadalom és más intézmények élénkek, a vállalkozás emberi értékek - A kormányok és a nemzeti alkotmányok, valamint a globális megállapodások az emberiséget helyezik előtérbe.… A mérnöki tevékenységnek az emberiséget kell szolgálnia, és soha nem szabad arra, hogy az emberiség a mérnöki tevékenységet szolgálja. Több embernek KELL alkotónak lennie a LIFE jövőjének - életük jövőjének, munkájuk jövőjének, kapcsolataik kölcsönhatásának jövőjének és az élet átfogó megélésének. Az ember-gép együttélésen túl ez szinergiát teremt ”.

Professzor szakértő az AI-benegy nagy globális technológiai vállalat AI-fejlesztési projektjeihez kapcsolódva azt írta: 'A precíziós demokrácia a precíziós oktatásból fog kialakulni, hogy fokozatosan támogassa a bolygónk és fajunk számára a legjobb döntéseket. A jövő a bolygónk fenntartásáról szól. Ahogyan a precíziós egészség jelenlegi fejlődése, mint az adatoktól a wellness felé vezető út, a mesterséges intelligencia is javítani fogja az emberi együttműködés és a döntéshozatal hatását bolygónk fenntartásában. '

Néhány válaszadó azzal érveltegyénekjobban kell tennie abban, hogy aktívabb szerepet vállaljon a számukra rendelkezésre álló döntéshozatali lehetőségek megértésében és megvalósításában ezekben az összetett, kódfüggő rendszerekben.

Kristin Jenkins, a BioQUEST Curriculum Consortium ügyvezető igazgatója elmondta: 'Mint minden eszköz, az AI előnyei és buktatói is attól függenek, hogyan használjuk. Egyre nagyobb aggodalomra ad okot az emberek mindennapi életével kapcsolatos adatok gyűjtése és lehetséges felhasználása. A ’Valami’ mindig tudja, hol vagyunk, a ház elrendezése, mi van a hűtőben és mennyit aludtunk. Ezeknek az eszközöknek a kényelme felülírja az óvatosságot az adatgyűjtéssel kapcsolatban, ezért törvényi előírásokkal és kulturálisan kell ápolni az erős magánélet védelmét. Meg kell tanulnunk felelősséget vállalni személyes adatainkért, és tisztában kell lennünk azzal, hogy mikor és hogyan gyűjtjük és használjuk fel őket ”.

Peng Hwa Ang |, a Nanyang Műszaki Egyetem kommunikációs professzora és a „Káosz rendezése: Az internet szabályozása” című könyv szerzője megjegyezte: „Az AI még mindig gyerekcipőben jár. Sok ez a szabályon alapszik, és nem követeli meg az igazi intelligenciát vagy tanulást. De még így is hasznosnak találom. Az autóm rendelkezik sávsegítővel. Úgy látom, hogy ettől jobb sofőr leszek. Ha az AI teljes értékű, biztonságosabbá és gyorsabbá teszi a vezetést. AI-t használok néhány olyan munkához, amelyet érzelemelemzéssel végzek. Megállapítottam, hogy képes vagyok kreatívabban feltenni a kivizsgálandó kérdéseket. Arra számítok, hogy az AI nagyobb kreativitásra készteti. Jelenleg az AI legnagyobb félelme, hogy ez egy fekete dobozos művelet - igen, a választott tényezők jók, pontosak és hasznosak, de senki sem tudja, miért választják ezeket a kritériumokat. Tudjuk a tényezők százalékos arányát, de a miérteket nem. Remélhetőleg 2030-ra a doboz átláthatóbb lesz. Ez az AI oldalán van. Emberi oldalon remélem, hogy az emberek megértik, hogy az igazi mesterséges intelligencia hibákat fog elkövetni. Ha nem, akkor nem igazi AI. Ez azt jelenti, hogy az embereknek készen kell állniuk az AI által elkövetett hibák felfogására. Nagyon jó lesz. De (még mindig) nem lesz bolondbiztos ”.

Bert Huang, a Virginia Tech informatikai tanszékének egyetemi adjunktusa, amely a gépi tanulásra összpontosított, azt írta: 'Az AI kárt okoz (és már okozott is kárt), de előnyei meghaladják az általa okozott kárt. Ennek ellenére a technológia nettó pozitív (történelmi) mintázata attól függ, hogy az emberek pozitív dolgokat keresnek-e a technológiával kapcsolatban, ezért a legjobb jövő biztosítása érdekében fontosak lesznek a kutatás társadalmi előnyök felé történő irányítása. '

Névtelen válaszadóazt mondta: 'Biztosítanunk kell, hogy az értékek (helyi vagy globális) és az etikai alapfilozófiai elméletek tájékoztassák az AI rendszerek fejlesztését és megvalósítását.'

Olyan politikák kidolgozása, amelyek biztosítják, hogy az AI fejlesztése az emberek és a közjó növelésére irányul

Sok szakértő, aki megosztotta a felismeréseit ebben a tanulmányban, azt állította, hogy átfogó változásnak kell lennie az autonóm rendszerek fejlesztésében, szabályozásában és tanúsításában. Általában azt mondták, hogy a célnak értékalapúnak, befogadónak, decentralizáltnak, „empátiával átitatott” hálózatoknak kell lennie, amelyek segítik az egyéneket abban, hogy a technológia megfeleljen a társadalmi és etikai felelősségnek a közjó érdekében.

Ahhoz, hogy a mesterséges intelligencia-technológiák valóban pozitívan átalakulhassanak, szükségünk van egy sor etikai normára, szabványra és gyakorlati módszertanra annak biztosítására, hogy az mesterséges intelligenciát felelősségteljesen és az emberiség javára használjuk. (Susan Etlinger)

Susan Etlinger, az Altimeter Group ipari elemzője, valamint az adatok, az elemzés és a digitális stratégia szakértője megjegyezte: 'Ahhoz, hogy az AI technológiák valóban pozitívan átalakuljanak, szükségünk van egy sor etikai normára, szabványra és gyakorlati módszertanra annak biztosítására, hogy használja az AI-t felelősen és az emberiség javára. Az AI technológiák képesek annyi jót tenni a világon: azonosítani az emberek és a populációk betegségeit, felfedezni az új gyógyszereket és kezeléseket, egyszerűbbé és biztonságosabbá tenni a napi feladatokat, például a vezetést, hatékonyabban figyelni és elosztani az energiát, és még sok minden mást. még nem képzeltem vagy tudtam megvalósítani. És - mint minden tektonikus eltolódás - az AI létrehozza saját típusú zavarait. Láttuk ezt a Gutenberg sajtótól kezdve a félvezető feltalálásáig minden nagyobb találmánynál. De az AI azkülönböző. Egyes emberi képességek adatok és algoritmusok felhasználásával történő replikálásának etikai következményei vannak. Az algoritmusok nem semlegesek; megismétlik és megerősítik az elfogultságot és a félretájékoztatást. Lehetnek átlátszatlanok. És a használatukhoz szükséges technológia és eszközök néhány kiválasztott szervezet kezében vannak, legalábbis manapság.

Bryan Johnson, a fejlett neurális interfészek vezető fejlesztőjének, a Kernelnek és az OS Fund kockázatitőke-társaságnak az alapítója és vezérigazgatója elmondta: 'Kezdhetjük saját digitális adatainkkal, valamint a testünkből, elménkből és viselkedésünkből származó adatok birtoklásával, majd követhetjük korrigálva nagy technológiai vállalataink ösztönzőit az innovációtól a mindennapi kényelem és a radikális emberi fejlődés felé. Például arra, hogy a technika hogyan nézhet ki, amikor a radikális emberi fejlődéshez igazodik, a kognitív protézisek egy nap figyelmeztetést fognak adni az elfogultságokra - például arra, hogy a mai autókban milyen érzékelők vannak, amelyek tájékoztatják Önt arról, hogy mikor tér el aludni, vagy ha sávváltást hajt végre jelez - és korrigálja a kognitív torzításokat, és figyelmeztesse az egyént a potenciális kognitív torzulásoktól. Ez jobb magatartást eredményezhet az iskolában, otthon és a munkahelyen, és ösztönözheti az embereket jobb egészségügyi döntések meghozatalára ”.

Marc Rotenberg, az Elektronikus Adatvédelmi Információs Központ (EPIC) ügyvezető igazgatója így kommentálta: 'Az AI növekedésének kihívása a folyamatok és a döntéshozatal növekvő átláthatatlansága. A kedvező eredményeket figyelmen kívül hagyjuk. A problémás eredményeket nem fogjuk felfogni. Ezért a mesterséges intelligencia elszámoltathatósága előtt álló legnagyobb kihívás a mesterséges intelligencia átláthatósága. Biztosítanunk kell, hogy megértsük és meg tudjuk ismételni a gépek által elért eredményeket. Az alternatív eredmény nem fenntartható ”.

John C. Havens, az IEEE autonóm és intelligens rendszerek etikájával foglalkozó globális kezdeményezés és a kibővített intelligencia tanácsának ügyvezető igazgatója azt írta: 'Bár manapság az emberek' hozzájárulást adnak 'az adathasználatukhoz, a legtöbb ember nem érti annak mélységét és szélességét, az információkat a vállalkozások és általában a kormányok használják fel. Amíg minden egyén nem kap szuverén identitást az általa ellenőrzött személyes adatfelhőhöz csatolva, addig az információkat valóban nem osztják meg - csak nyomon követik. A blokklánc vagy hasonló technológiák felhasználásával, valamint a polgárok és azok adataival szembeni progresszív eszmék átvételével, amint azt Észtország is bizonyítja, az algoritmus korában bevezethetjük a valódi digitális demokráciát. A másik, az emberi-mesterséges intelligencia-növelés elbeszélés alapjául szolgáló kérdés, amelyet ritkán tárgyalnak, az az egész technológiai gyártást vezérlő gazdasági alapok. Ahol az exponenciális növekedés, a részvényesi modellek elsőbbséget élveznek az emberi és környezeti jólét csökken. Joseph Stiglitzhez hasonló emberek több jelentése rámutat arra, hogy bár az AI az elkövetkező évtizedekben nagymértékben növeli a GDP-t, e növekedés előnyei a keveseknek kedveznek a sokakkal szemben. Az „emberek, bolygó és profit” csak a „Túl a GDP-n” vagy a hármas alsó mérőszámok elfogadásával alakítja ki a holisztikus jövőt az emberek és az AI között ”.

Greg Lloyd, a Traction Software elnöke és társalapítója egy jövőbeli forgatókönyvet mutatott be: „Az AI-k 2030-ra szinte minden ember - akár emberi, akár vállalati - számára kiterjesztik az összes személyes és hálózati erőforrás, mint magasan képzett és megbízható ügynökök hozzáférését és felhasználását. Ezek az ügynökök kötelesek lesznek az új törvények és rendeletek szerint cselekedni, amelyek építésük alapvető elemei, hasonlóan Isaac Asimov „Három robotikai törvényéhez”, de finomabb szemcsésségű „tanúsítvánnyal” rendelkeznek olyan tevékenységek osztályaihoz, amelyek kötelezik magatartásukat és felelősségüket. gyakorlat, hasonlóan az orvosi, jogi, számviteli és mérnöki gyakorlat kódexéhez. A tanúsított ügynökök hozzáférést kapnak személyes vagy vállalati erőforrásokhoz, és ezeken a kereteken belül képesek lesznek beszélgetni, iránymutatást adni, tanácsokat adni és úgy viselkedni, mint megbízható alkalmazottak, tanácsadók vagy ügyvédek. Bár ezek az ügynökök intelligens és segítőkész lényeknek fognak „érezni” magukat, nem lesz semmilyen valódi független akaratuk vagy tudatuk, és nem tehetnek úgy, mintha emberek lennének, és nem viselkedhetnek ellentétesen a viselkedésüket összekötő törvényekkel és szabályokkal. Gondolj Arielre és Prosperóra.

Tracey P. Lauriault, a kritikus média és nagy adatok adjunktusa a Carleton Egyetem Újságíró és Kommunikációs Iskolájában megjegyezte: „(Mi a helyzet) a szabályozási és politikai beavatkozásokkal, amelyek megvédik az állampolgárokat a potenciálisan káros következményektől, a mesterséges intelligencia auditálásától, felügyeletétől, átláthatóságától és elszámoltathatóságától? A rendszer alapú keretrendszer valamiféle elvének hiányában annak biztosítása érdekében, hogy a mesterséges intelligencia továbbra is etikus és a közérdeket szolgálja, stabil módon, akkor azt kell feltételeznem, hogy az AI akadályozza az ügynökséget, és káros, elfogult döntéshozatalhoz vezethet. , pontatlan és nem képes dinamikusan változni a változó értékekkel. Valamiféle elszámoltathatóságra van szükség ”.

Joel colloc, a University of Havre Normandy Egyetem professzora és az „Autonóm Információs Rendszerek Etikája” szerzője megjegyezte: „Amikor az AI támogatja az emberi döntéseket mint döntéstámogató rendszert, ez segíthet az emberiségnek javítani az életet, az egészséget és a jólétet, valamint javítani az emberiség ellátását . Lásd Marcus Flavius ​​Quintilianus elveit: Ki mit csinál, mit, miért, hogyan, mikor, hol? Az autonóm mesterséges intelligencia olyan erő, amelyet hatalmas emberek használhatnak az emberek irányítására, rabszolgaságba helyezésükre. A Quintilian-elvek alkalmazása az AI szerepére ... javaslatot kell tennünk az AI etikai kódexére annak értékelésére, hogy az egyes alkalmazástípusok a felhasználó jólétére irányulnak: 1) ne ártsanak a felhasználónak, 2) előnyök származnak a felhasználó, 3) ne éljen vissza szabadságával, személyazonosságával és személyes adataival, és 4) tisztességtelennek nyilvánítja a felhasználó függetlenségét elidegenítő vagy az alkalmazás során a magánélet felett gyakorolt ​​ellenőrzési jogait gyengítő záradékokat. A rendszer felhasználójának szuverenitásának teljesnek kell maradnia ”.

Joseph Turow, a Pennsylvaniai Egyetem kommunikációs professzora azt írta: „Az, hogy az AI javítja-e a társadalmat vagy károsítja-e azt 2030-ig, a kor társadalmát irányító struktúráktól függ. Az emberi jogokra összpontosító, széleskörű demokratikus társadalmak ösztönözhetik az olyan szabályozásokat, amelyek az AI-t olyan irányba terelik, amely segíti a nemzet minden szektorát. A tekintélyelvű társadalmak ezzel szemben napirendeket fognak meghatározni az AI számára, amelyek tovább osztják az elitet a többitől, és technológiát alkalmaznak a megosztottság ápolására és megerősítésére. Ma mindkét tendenciát látjuk; a disztópikus főleg a legnagyobb népességű helyeken van elsőbbségben. Kritikus, hogy a jövő nemzedékeivel törődő emberek felszólaljanak, amikor az AI autoriter irányzatai megjelennek ”.

Henry E. Brady, a Berkeley-i Kaliforniai Egyetem Goldman Közpolitikai Iskolájának dékánja azt írta: 'Úgy gondolom, hogy olyan politikai válaszokat lehet kidolgozni, amelyek csökkentik az elfogultságokat, és megtalálják a módját annak, hogy az AI és a robotika megfeleljen az emberi életnek.'

Jennifer King, a Stanfordi Jogi Iskola Internet és Társadalom Központjának adatvédelmi igazgatója elmondta: 'Hacsak nem látunk valós erőfeszítéseket az AI erejének a közjó érdekében történő kiaknázására, nem látok átfogó közhasznúságot 2030-ig. a magánszektornak azt jelenti, hogy a mesterséges intelligenciát a fogyasztás további fejlesztésére fejlesztik, nem pedig a tudás és a közhasznúság bővítését ”.

Gary Kreps, a kommunikáció jeles professzora, a George Mason Egyetem Egészségügyi és Kockázati Kommunikációs Központjának igazgatója azt írta: 'Az AI hatalmas lehetősége, amelyet az információs tartalom és a számítógépes szolgáltatások egyéni felhasználók számára történő felhasználására és adaptálására használnak, egyre hasznosabbá, vonzóbbá teheti a számítástechnikát. és releváns. Ezen eredmények eléréséhez azonban az AI-t a felhasználóra való tekintettel kell programozni. Például a mesterséges intelligencia-szolgáltatásoknak felhasználóközpontúaknak, alkalmazkodóknak kell lenniük az egyes felhasználókhoz, könnyen használhatók, könnyen érthetők és könnyen kezelhetők a felhasználók számára. Ezeket a mesterséges intelligencia-rendszereket úgy kell programozni, hogy alkalmazkodjanak az egyedi felhasználói igényekhez, megismerve a felhasználói igényeket és preferenciákat ”.

Thomas Streeter, a Vermonti Egyetem szociológiai professzora elmondta: „A technológia nem fogja meghatározni, hogy 2030-ban jobbak-e vagy sem a dolgok; társadalmi és politikai döntések ”.

Werbos Pál, a Nemzeti Tudományos Alapítvány korábbi programigazgatója, aki 1974-ben írta le először a mesterséges ideghálózatok képzésének folyamatát a hibák újratelepítésével, azt mondta: 'A választás pillanatában vagyunk. A kimenetel nagyban függ azoktól a nagyon hatalmas emberek döntéseitől, akik nem kezdik megismerni az előttük álló alternatívák következményeit, sőt azt sem, hogy mik az érdemi alternatívák ”.

Divina Frau-Meigs, a Párizsi Egyetem médiaszociológiai professzora: Sorbonne Nouvelle és az UNESCO fenntartható digitális fejlődésért felelős elnöke így válaszolt: 'Minél hamarabb illeszkedik az AI etikája az emberi jogi alapelvekhez, annál jobb.'

Juan Ortiz Freuler, a World Wide Web Foundation szakpolitikus munkatársa azt írta: 'Úgy gondoljuk, hogy a technológia képes és kell hatást gyakorolnia az emberekre. Ha az „embereknek” továbbra is érdemi beleszólásuk lesz a társadalom irányításába, akkor az államnak növelnie kell technikai képességeit, hogy biztosítsa e vállalatok megfelelő felügyeletét. A technika általában és különösen a mesterséges intelligencia elősegíti az emberiség fejlődését minden területen azáltal, hogy lehetővé teszi a folyamatok hatékony méretezését, a költségek csökkentését és több szolgáltatás elérhetővé tételét több ember számára (beleértve a minőségi egészségügyi ellátást, mobilitást, oktatást stb.). A nyitott kérdés az, hogy ezek a változások hogyan befolyásolják a teljesítménydinamikát. A hatékony működéshez az AI-nek széles infrastruktúra-összetevőkre van szükség, amelyek nem egyenlően oszlanak meg. Ide tartoznak az adatközpontok, a számítási teljesítmény és a nagy adat. Ami még aggasztóbb, hogy vannak okok további koncentrációra számítani. Egyrészt az adatok jól skálázhatók: Az adatközpont felállításának előzetes (fix) költségei nagyok az üzemeltetés fenntartásának költségeihez képest. Ezért az egyes extra nullapontok tárolásának költségei kissé alacsonyabbak, mint az előzőek. Az adatok a mesterséges intelligencia fűtőelemei, ezért aki több adathoz fér hozzá, az hatékonyabb mesterséges intelligenciát alakíthat ki. Másrészt az AI hatékonyságnövelést eredményez azáltal, hogy lehetővé teszi a vállalatok számára, hogy több folyamatot automatizáljanak, vagyis aki előbbre kerül, az alulmúlhatja a versenytársakat. Ez a kör táplálja a koncentrációt. Mivel életünk több részét a technológia irányítja, fennáll annak a veszélye, hogy aki irányítja ezeket a technológiákat, túl sok energiát kap. Az életminőség szempontjából előnyök, valamint az emberek autonómiáját és a politika feletti ellenőrzést érintő kockázatok minőségileg különböznek, és nem lehet (és nem is szabad) kompromisszumot kötni ”.

Meryl Alper, az Északkeleti Egyetem kommunikációs adjunktusa és a Harvard Egyetem Berkman Klein Internetes és Társadalmi Központjának munkatársa azt írta: „Attól tartok, hogy az AI eszközöket hathatósan használják az erőforrások további központosítására és az emberek marginalizálására. Ezek az eszközök, akárcsak maga az internet, lehetővé teszik az emberek számára, hogy ezt egyre olcsóbban, gyorsan, messzemenő és könnyen megismételhető módon, exponenciálisan negatív környezeti hatásokkal tegyék meg. Ennek legrosszabb megnyilvánulásai megelőzéséhez globális ipari szabályozásra lesz szükség a kormánytisztviselők részéről, akik gyakorlati tapasztalatokkal rendelkeznek a mesterséges intelligencia-eszközökkel való munka terén szövetségi, állami és helyi szinten, valamint a kormányzati mesterséges intelligencia-eszközök átlátható ellenőrzésére a legkülönfélébb (minden értelemben vett) helyi csoportok részéről. a kifejezés) érdekelt felek ”.

David Wilkins, az oregoni egyetem informatikai oktatója így válaszolt: 'Az AI-nek képesnek kell lennie megmagyarázni döntéseinek alapját'.

Kiemelt kutatási igazgató és műszaki munkatárs egy nagy globális technológiai vállalatnálazt mondta: 'Óriási lehetőség nyílik az emberek életének javítására az AI technológiák révén. A mesterséges intelligencia pozitív felhasználási területei dominálnak, mivel az emberek számára értékük alapján választják ki őket. Bízom abban, hogy az ipar, az egyetem és a civil társadalom munkája továbbra is fontos szerepet játszik a technológia moderálásában, például az AI lehetséges költséges személyes, társadalmi és társadalmi hatásainak megértésében. Különösen bízom a mesterséges intelligenciával kapcsolatos hosszú távú, folyamatban lévő százéves tanulmányban kapott útmutatásokban és a mesterséges intelligenciával kapcsolatos partnerség erőfeszítéseiben ”.

Stone Stone, az austini Texasi Egyetem informatikai professzora és a Mesterséges Intelligencia Százéves Tanulmányának (AI100) első tanulmányozó testületének elnöke azt válaszolta: 'Amint azt az AI100 jelentés részletesen ismerteti, úgy gondolom, hogy mindkettő létezik. jelentős lehetőségek és jelentős kihívások / kockázatok az AI technológiáknak a mindennapi élet különböző aspektusaiba történő beépítésével kapcsolatban. Gondosan kidolgozott iparági specifikus politikák és felelősségteljes használat mellett úgy gondolom, hogy a lehetséges előnyök meghaladják a kockázatokat. De a kockázatokat nem szabad félvállról venni.

Anita Salem, a rendszerkutatás és a SalemSystems tervezésének vezetője, figyelmeztetett egy lehetséges dystopiás kimenetelre: „Az ember-gép interakció növekvő pontosságot és csökkenő emberi jelentőséget eredményez, hacsak nem tesznek külön erőfeszítéseket az„ emberiségben ”való tervezésre. Például az AI az orvosi területen elősegíti a pontosabb diagnózist, növeli a műtéti pontosságot és növeli a bizonyítékokon alapuló elemzéseket. Helyes tervezéssel ezek a rendszerek lehetővé teszik az emberek számára, hogy megtegyék azt, amit a legjobban tudnak nyújtani: empátiát kínálnak, tapasztalat-alapú intuíciót használnak, és az érintést és a kapcsolatot a gyógyulás forrásaként használják fel. Ha az emberi igényeket kihagyják a tervezési folyamatból, akkor egy olyan világot fogunk látni, ahol az emberek egyre kevésbé relevánsak és könnyebben manipulálhatók. Láthattuk, hogy növekszik az alulfoglalkoztatottság, ami nagyobb bérszakadékhoz, nagyobb szegénységhez és hajléktalansághoz, valamint növekvő politikai elidegenedéshez vezet. Kevesebb lehetőséget látunk az értelmes munkára, ami növekvő drog- és mentálhigiénés problémákat, valamint a családtámogatási rendszer további erózióját eredményezi. Az AI-tervezés humanizálásának kifejezett erőfeszítései nélkül meg fogjuk látni a vásárláshoz szükséges, de nem létrehozó populációt. Ezt a népességet ellenőrizni kell, és az AI biztosítja ennek az ellenőrzésnek az eszközeit: bűnüldözés drónokkal, véleménymanipuláció robotok által, kulturális homogenitás szinkronizált üzenetküldés útján, nagyadatokból optimalizált választási rendszerek és geopolitikai rendszer, amelyet olyan vállalatok uralnak, amelyek profitáltak a hatékonyság növelése és az alacsonyabb működési költségek ”.

Mivel az emberek számára egyre nehezebb megérteni az AI / tech működését, nehezebb lesz megoldani az elkerülhetetlen problémákat. Chris Newman

Chris Newman, az Oracle főmérnöke, így kommentálta: 'Amint az emberek számára egyre nehezebb megérteni az AI / tech működését, nehezebbé válik az elkerülhetetlen problémák megoldása. Jobb eredmény érhető el a mérnökök és a fogyasztók erőteljes tolásával az elegancia és az egyszerűség felé (pl. Steve-Jobs-korszak Apple).

Észak-Amerikában működő kutatóazt írta: „A jogszabályok kerekei, amelyek az elsődleges mechanizmusok az ellátások eloszlásának biztosítására az egész társadalomban, lassan mozognak. Noha az AI / automatizálás előnyei nagyon gyorsan felhalmozódnak az 1% -nál, a lakosság többi részének hosszabb időbe telik, amíg bármilyen előnyét érzi, és CSAK akkor, ha képviselővezetõink TISZTELTEN erõs szociális és fiskális politikát hajtanak végre. Például az AI megtakarítja a munkaerő milliárdjait - és a tőkével folytatott tárgyalások során csökkenti a munkaerő alkupozícióját is. Bármely mesterséges intelligencia technológiát alkalmazó társaságot súlyosan meg kell adóztatni, és ezt a pénzt olyan erős szociális jóléti programokba kell fordítani, mint az állás-átképzés és a szövetségi munkaügyi programok. Egy másik példa: minden állami finanszírozású mesterséges intelligencia-kutatást meg kell akadályozni a privatizációban. A nyilvánosságnak látnia kell a saját beruházásaiból származó jutalmat. Ne engedje, hogy az AI kövesse a Big Pharma által a nyilvánosság által engedélyezett Bayh-Dole törvény kihasználásának mintáját.

Ken Birman, a Cornell Egyetem informatikai tanszékének professzora így válaszolt: '2030-ra úgy gondolom, hogy otthonaink és irodáink úgy fejlődtek, hogy támogassák az alkalmazásszerű funkciókat, hasonlóan a zsebemben lévő iPhone-hoz. Az emberek testreszabják lakó- és munkaterületüket, és a különböző alkalmazáscsomagok támogatják a különböző életmódot vagy speciális igényeket. Gondoljunk például egy gyermekes fiatal párra, egy otthonot megosztó diákcsoportra vagy egy idős emberre, aki kissé gyenge. Mindegyiknek különféle támogatásra lenne szüksége. Ez az „alkalmazások” perspektíva széles és nagyon rugalmas. De azt is biztosítanunk kell, hogy a magánélet és a biztonság erősen védve legyen a jövő környezete által. Szeretném, ha eszközeim és alkalmazásaim a nevemben lennének összekapcsolva, de soha nem akarom, hogy folyamatosan kémkedjenek. Úgy gondolom, hogy ez megvalósítható, és amint előfordul, számtalan módon profitálhatunk belőle ”.

Martin Geddes, a telekommunikációs stratégiákra szakosodott tanácsadó elmondta: 'Az AI váratlan hatása az lesz, hogy automatizáljuk számos interakciónkat olyan rendszerekkel, amelyekben hozzájárulást adunk, és lehetővé tesszük az eredmények szélesebb körének tárgyalását részvételünk nélkül. Ehhez egy új bemutató rétegre van szükség a kibővített valóság metaverzióhoz, egy új „böngészővel” - a Guardian Avatarral -, amely segít megvédeni identitásunkat és érdekeinket ”.

Lindsey Andersen, a Freedom House és az Internews emberi jogainak és technológiájának kereszteződésében tevékenykedő aktivista, aki most a Princetoni Egyetemen végzett diplomát kutat, így kommentálta: „Már túlzottan támaszkodnak az AI-ra, hogy következményes döntéseket hozzanak, amelyek befolyásolják az emberek életét. Rohantunk az AI-vel mindent eldönteni, a közösségi médiában látott tartalomtól kezdve a kreditpontszámok kiosztásán át annak meghatározásáig, hogy a vádlott mennyi ideig töltsön büntetést. Bár gyakran jó szándékúak, a mesterséges intelligencia ezen alkalmazásai sokféle etikai és emberi jogi kérdést tartalmaznak, a faji elfogultság fenntartásától a magánélethez és a szabad véleménynyilvánításhoz való jogaink megsértéséig. Ha nem kezeltük ezeket a problémákat intelligens szabályozással, fogyasztói / vásárlói oktatással és normák kialakításával az AI-iparban, akkor 2030-ban egy sokkal igazságtalanabb, polarizált és felmérett világot nézhetnénk ”.

Yeseul Kim, egy nagy dél-koreai keresőcég tervezője ezt írta: 'Az AI által generált jólét és előnyei csak akkor fogják elősegíteni az életminőséget a legtöbb ember számára, ha annak etikai és társadalmi hatásait széles körben megvitatják és megosztják az emberi társadalomban, és csak akkor, ha megfelelő szabályozások és jogszabályok hozhatók létre az AI előrehaladásának eredményeként felmerülő kötelességszegések enyhítésére. Ha ezek a feltételek teljesülnek, a számítógépek és gépek példátlan sebességgel és páratlan pontossággal képesek feldolgozni az adatokat, és ez javítani fogja az életminőséget, különösen az orvosi és az egészségügyi szektorban. Már bizonyított és széles körben megosztott az orvosi szakértői csoportok között, hogy az orvosok jobban teljesítenek a betegségek felderítésében, amikor AI-val dolgoznak. A műtéti robotika is fejlődik, így ez a betegek számára is előnyös lesz, mivel segítséget nyújthatnak olyan emberi sebészeknek, akik elkerülhetetlenül szembesülnek a fizikai korlátokkal, amikor műtéteket végeznek ”.

Mark Maben,a Seton Hall Egyetem vezérigazgatója ezt írta: „Az AI-forradalom sajnos valószínűleg disztópikus lesz. Jelenleg a kormányzati, oktatási, polgári, vallási és vállalati intézmények nincsenek felkészülve az AI által okozott hatalmas gazdasági és társadalmi zavarok kezelésére. Nincs kétségem afelől, hogy a mesterséges intelligencia fejlődése növeli az emberi képességeket és felhatalmazza egyes embereket, de ezt több mint ellensúlyozza az a tény, hogy a mesterséges intelligencia és a kapcsolódó technológiai fejlődés sokkal kevesebb munkahelyet jelent a jövőben. Mielőtt a legtöbb egyén és társadalom rájönne, a mesterséges intelligencia és az automatizálás megszünteti a kiskereskedelmi munkavállalók, teherautó-sofőrök, ügyvédek, sebészek, gyári munkások és más szakmák iránti igényt. Annak biztosítása érdekében, hogy az emberi szellem az AI által irányított és irányított világban virágozzon, meg kell változtatnunk a munka jelenlegi koncepcióját. Ez óriási feladat egy globális gazdasági rendszer számára, amelyben a legtöbb társadalmi és gazdasági előny a hagyományos munkakör betöltésével jár. Már látjuk a demokratikus intézmények hanyatlását és a tekintélyelvűség növekedését a gazdasági egyenlőtlenség és a munka változó jellege miatt. Ha nem most kezdjük el tervezni azt a napot, amikor a mesterséges intelligencia a foglalkoztatás teljes megzavarását eredményezi, akkor a megterhelés valószínűleg politikai instabilitást, erőszakot és kétségbeesést eredményez. Ezt el lehet kerülni olyan politikákkal, amelyek az alapvető emberi szükségleteket kielégítik és a munka új meghatározását ösztönzik, de a politikusok, kormányok, vállalatok és gazdasági elitek eddigi magatartása kevéssé bízik bennem abban, hogy képesek lennék vezetni minket ezen az átmeneten keresztül ”.

Eduardo Vendrell, a spanyol Valenciai Műszaki Egyetem informatikus professzora így válaszolt: „Ezek az előrelépések érezhetően befolyásolják a magánéletünket, mivel ennek az alkalmazásnak az alapja azokra az információkra összpontosul, amelyeket a különböző technológiák alkalmazásával generálunk. szükséges lesz az információkhoz való hozzáférés és azok felhasználásának meghatározó szabályozása ”.

Yoram Kalman, az Izraeli Nyílt Egyetem docense és a Haifai Egyetem Internetkutató Központjának tagja írta: 'A fő kockázat az, amikor a kommunikációs és elemzési technológiákat mások irányítására, manipulálására vagy előnyeinek kihasználására használják. tőlük. Ezek a kockázatok mindig fennállnak, és mérsékelhetők a társadalmi tudatosság és az oktatás révén, valamint olyan szabályozás révén, amely azonosítja azokat az entitásokat, amelyek egy adott technológiának vagy technológiáknak köszönhetően nagyon hatalmasakká válnak, és amelyek ezt az erőt felhasználják önmaguk további megerősítésére. Az ilyen szervezetek - legyenek azok kereskedelmi, politikai, nemzeti, katonai, vallási vagy egyéb - a múltban megpróbálták és sikeresen kihasználják a technológiákat az általános társadalmi javakkal szemben, és ez minden erőteljes innováció kockázata. Ez a kockázat éberekké tesz minket, de nem akadályozhatja meg bennünket abban, hogy megvalósítsuk az egyik legalapvetőbb emberi sürgetést: az emberi állapot folyamatos javítására való törekvést ”.

Sam Gregory, a WITNESS igazgatója és a digitális emberi jogi aktivista így válaszolt: 'Feltételezzük, hogy az összes megfigyelési és megfigyelési, népességellenőrzési és manipulációs rendszert aránytalanul használják és nem megfelelően ellenőrzik az autoriter és nem demokratikus kormányok. Ezek a kormányokésa demokratikus kormányok továbbra is nyomást gyakorolnak a platformokra, hogy a mesterséges intelligenciát használják a tartalom figyelemmel kísérésére, és ez a nyomon követés önmagában hozzájárul a személyre szabáshoz, valamint a felügyelethez és a manipulációhoz szükséges adatokhoz. Ahhoz, hogy visszavághassunk ennek a sötét jövőnek, meg kell szereznünk a megfelelő figyelmet a jogszabályokra és a platform önigazgatásáraépp most, és gondolkodnunk kell a médiaműveltségről, hogy megértsük az mesterséges intelligencia által generált szintetikus médiát és a célzást. Óvatosnak kell lennünk azzal kapcsolatban is, hogy mennyire ösztönözzük a mesterséges intelligencia alkalmazását az online tartalomkezelés és például a gyűlöletbeszéd kezelésére szolgáló megoldásként ”.

Jonathan Kolber, futurista, ezt írta: „Attól tartok, hogy olyan AI-k létrehozásával, amelyek gyorsabban és megbízhatóbban tudnak új feladatokat elsajátítani, mint az emberek, a jövőbeli gazdaságnak csak elenyésző lehetőségei lesznek a legtöbb ember számára. Remélem, hogy megkezdjük a fenntartható és életképes univerzális alapjövedelem megvalósítását, különös tekintettel Michael Haines MUBI javaslatára. (Tudomásom szerint az egyetlen ilyen javaslat, amely fenntartható és bármely országban bármikor megvalósítható.) Az alternatívák kritikáját felajánlottam. Tekintettel arra, hogy az embereknek már nincs szükségük 2030-ban versenyképes keresőerejükre, az AI sokkal jobb világot fog teremteni. Ha azonban nem sikerül megvalósítanunk egy piacorientált univerzális alapjövedelmet vagy valami hasonlóan hatékony eszközt, akkor hatalmas tömegek munkanélkülivé és munkanélkülivé válnak, anélkül, hogy támogatnák magukat. Ez a társadalmi katasztrófa receptje ”.

Walid Al-Saqaf, a Södertörni Egyetem vezető oktatója, az Internet Society (ISOC) kuratóriumának tagja és az ISOC Blockchain Special Interest Group alelnöke megjegyezte: „A kihívás az, hogy biztosítsuk az AI-eljárásokhoz felhasznált adatok megbízhatóságát. Ez magában foglalja az erős kiberbiztonság és az adatok integritásának szükségességét. Ez utóbbit, úgy gondolom, rendkívüli módon javíthatják az olyan elosztott főkönyvi technológiák, mint a blokklánc. Előreláthatok többnyire pozitív eredményeket az AI-től, amennyiben elegendő őr van arra, hogy megvédje a feladatok automatizált végrehajtását az olyan területeken, amelyeknek etikai szempontjai lehetnek, például olyan döntések meghozatala, amelyek élet vagy halál következményekkel járhatnak. Az AI sok potenciállal rendelkezik. Az emberi értelem és ítélőképesség kiegészítésére és nem helyettesítésére kell használni ”.

Danny O'Brien, a nonprofit digitális jogok nemzetközi igazgatója megjegyezte: 'Általában optimista vagyok abban, hogy az emberek képesek irányítani a technológiát saját maguk és mások javára. Arra számítok, hogy az ember és gép közötti együttműködés egyéni szinten zajlik, olyan eszközökkel és képességekkel, amelyek fokozzák a saját megítélésünket és cselekedeteinket, nem pedig arra, hogy ez néhány szereplőre korlátozódjon. Így például, ha arcfelismerő vagy prediktív eszközöket használunk, akkor azt egy végfelhasználó ellenőrzi, átlátható és csak személyes használatra korlátozódik. Ehhez szükség lehet szabályozásra, belső kódolási korlátozásokra vagy a felhasználói képességek közötti egyensúly megteremtésére. De remélem, hogy eljuthatunk oda ”.

Fernando Barrio, az argentin Universidad Nacional de Río Negro jogi programjának igazgatója megjegyezte: 'Az emberek és a hálózatba kötött AI egymással való kölcsönhatása a lakosság nagy részének jobb jövőhöz vezethet. Ehhez az erőfeszítéseket nemcsak a mesterséges intelligencia fejlesztésének és képességeinek növelésére kell irányítani, hanem az e technológiák elérhetőségének és befogadásának növelésére irányuló pozitív politikákra is. A kihívás nem technikai; szociopolitikai ”.

Paul Jones, az észak-karolinai egyetem informatikai professzora, a Chapel Hill, így válaszolt: 'Az AI, amint tudjuk 2018-ban, csak most kezdi megérteni önmagát. A HAL-hoz hasonlóan 2030-ig éretté válik poszt-serdülőkori énjének, valamint az emberekhez és a világhoz fűződő viszonyának megértésében. De az emberek is megérettek az AI-vel való kapcsolatunkban. Mint minden serdülőkapcsolat, itt is kockázatvállalás, megbánás és remélhetőleg megbékélés lépett fel. A nyelv volt az első kapcsolatunk más intelligenciákkal, aztán a könyvek, majd az internet - mindegyik meghittebb beszélgetés volt, mint az előző. Az AI kapcsolattartóvá, tanácsadóvá és bizonyos mértékig bölcs szerető társunkká válik ”.

Jean-Claude Heudin, a mesterséges intelligencia és a szoftvertervezés terén jártas professzor a francia De Universeire Leonard de Vinci De Vinci Kutatóközpontjában azt írta: „A természetes intelligencia és a mesterséges intelligencia kiegészítik egymást. Szükségünk van az összes lehetséges intelligenciára a még hátralévő problémák megoldásához. A több intelligencia mindig jobb ”.

Bryan Alexander, futurista és a Bryan Alexander Consulting elnöke így válaszolt: 'Remélem, hogy az AI-t úgy alakítjuk ki, hogy fokozzuk kreativitásunkat, lendületesebbé tegyük tanulásainkat, bővítsük kapcsolatainkat világszerte, fizikailag biztonságosabbá tegyünk és megszüntessünk néhány szemetet'.

Egyesek azonban aggódnak amiatt, hogy a politika meghatározása némi kárt okozhat.

Scott Burleigh, szoftvermérnök és intergalaktikus internetes úttörő írta: 'Magának a technológiának az előrehaladása, beleértve az AI-t is, mindig növeli képességünket arra, hogy életünket javító módon változtassunk a valóság körülményein. Mindig bemutatja azokat a lehetséges mellékhatásokat is, amelyek rosszabbá tehetnek minket, mint korábban voltunk. Ezek a hatások akkor valósulnak meg, amikor az új technológiák használatára kidolgozott politikánk ésszerűtlen. Nem aggódom a technológia miatt; A hülye politika miatt aggódom. Nagyon aggódom emiatt, de őrzötten optimista vagyok; a legtöbb esetben azt gondolom, hogy végül elviselhető politikákhoz jutunk ”.

Ami engem leginkább aggaszt, az maga az aggodalom: Egy kialakuló morális pánik, amely elvágja ennek a technológiának az előnyeit, félve attól, hogy mit lehet vele kezdeni. Jeff Jarvis

Jeff Jarvis, a New York-i City University Craig Newmark újságíróiskolájának Tow-Knight Center igazgatója így kommentálta: 'Ami engem leginkább aggaszt, az maga az aggodalom: Egy felmerülő erkölcsi pánik, amely elvágja ennek a technológiának az előnyeit attól félve, hogy mi lehet kész vele. A legjobban attól tartok, hogy nem csak a technológiát és az adatokat, hanem magát a tudást is kontrollálni kell, előírva, hogy milyen információkra lehet felhasználni, mielőtt megtudnánk, hogy mik lehetnek ezek a felhasználások. A „könyv” helyett az „AI”, az 1485-ös (vagy talán az 1550-es) évet pedig 2030-ra helyettesíthetném a kérdésében, és ez eléggé igaz. Egyesek úgy gondolták, hogy jó lesz, mások rosszak; mindkettő rendben van. Ezt kitaláljuk. Mindig volt. Bizony, a könyv után háborúk és egyéb mély rendbontások voltak. De végül az emberek kitalálják, hogyan lehet a technológiákat előnyükre kihasználni és biztonságuk érdekében irányítani őket. Én ezt a társadalom törvényének nevezném. Ugyanez lesz az AI-vel is. Egyesek természetesen visszaélnek vele, és itt az ideje, hogy meghatározzuk a használatának korlátait - nem korábban spekulatív módon. Sokkal többen fogják használni gazdasági, társadalmi, oktatási és kulturális haszon megszerzéséhez, és nekünk meg kell adnunk a szabadságot erre. ”

Egyes válaszadók szerint bármennyire is összeáll a társadalom a mesterséges intelligencia problémáinak elhárítása érdekében, továbbra is lesznek problémák.

Dave Gusto, a politikatudomány professzora és az Arizonai Állami Egyetem Tudomány, Politika és Eredmények Konzorciumának társigazgatója elmondta: 'A kérdés a' legtöbb emberre vonatkozik '. A világon a legtöbb ember olyan életet él, amelyet a technika nem nagyon értékel. , a technológiai fejlesztők és az AI. Nem látom, hogy ez a következő tucat évben sokat változik ”.

NAK NEK régóta működő Szilícium-völgy kommunikációs szakemberaki az elmúlt évtizedekben több csúcstechnológiai vállalatnál dolgozott, így válaszolt: 'Az AI tovább fog javulni *, ha * a minőségi emberi hozzájárulás áll mögötte. Ha igen, akkor a jobb mesterséges intelligencia a tölcsér tetején lévő szolgáltató iparágakat fogja támogatni, így az emberek kezelni tudják az értelmezést, a döntéseket és az alkalmazott tudást. Eszembe jut az orvosi adatgyűjtés a korábbi diagnosztika érdekében. Intelligensebb álláskeresési folyamatok, környezeti adatgyűjtés az éghajlatváltozással kapcsolatos cselekvésekhez - ezek az alkalmazások mind eszünkbe jutnak ”.

Hari Shanker Sharma, a svéd Uppsala Egyetem nanotechnológiai és neurobiológiai szakértője elmondta: 'Az AI még nem érte el a csúcsot, így a növekedés folytatódik, de a gonosz is használja az ilyen fejleményeket. Ez nagyobb veszélyeket fog hozni az emberiség számára. Szükség lesz a növekedés és a biztonság egyensúlyára, például a közösségi média jó és rossz. A gonosz kereskedőktől való védelem nem elégséges. Szükség van egy támadó / gonosz kereskedő felkutatására egy globális faluban az ellenőrzés és a büntetés érdekében. Az AI egy mesterséges embert fog megszülni, aki angyal vagy ördög lehet. Terv a gonosz leküzdésére a fejlődés minden szakaszában ”.

A digitális akadálymentesség érdekében dolgozó váltógépazt írta: 'Nincs ok azt feltételezni, hogy valamilyen meghatározatlan erő képes lesz az emberi természet kárt kijavítani vagy enyhíteni, amelyet erőközpontosító technológiákkal erősítenek fel. Nincs arra utaló jel, hogy a kormányok képesek lennének ellensúlyozni a hatalom-központosítási trendeket, mivel a kormányok is kihasználják az ilyen piaci kudarcokat. Az ilyen kölcsönhatások külső öltözködése valószínűleg a legkevésbé fontos szempont ”.

Informatikai futuristamegjegyezte: 'Attól tartok, hogy a hatalmas üzleti érdekek továbbra is a nyereséget fogják mindenek fölé helyezni, lehunyták szemüket a döntéseik másod- és harmadrendű hatásai előtt. Attól tartok, hogy nincs politikai akaratunk a polgárok és a demokrácia közös érdekeinek védelmére és előmozdítására. Attól tartok, hogy technológiai eszközeink gyorsabban fejlődnek, mint az a képesség, hogy okosan kezeljük őket. Mindazonáltal nemrégiben új állásajánlatokat fedeztem fel, olyan címekkel, mint „a kutatás, politika és etika igazgatója az AI-ben” és „az építész, az AI etikai gyakorlata” a nagyobb szoftvercégeknél. A reménynek oka van.

A névtelen válaszadók következő egyvonalas vonalai is kapcsolódnak ehhez a témához:

  • Nyílt forráskódú technológus az autóiparbanazt írta: 'Szükségünk lesz független mesterséges intelligencia-rendszerekre, gondosan ellenőrzött adatokhoz való hozzáféréssel, világos irányítással és az egyének jogával, hogy elfeledkezzenek'.
  • A washingtoni nagy egyetem nemzetközi ügyeinek kutatóprofesszora„Meg kell találni az egyensúlyt az etikus, megkülönböztetéstől mentes használat, az átláthatóság és az innováció ösztönzésére létrehozott rendeletek között”.
  • Egy nagyobb regionális internetes nyilvántartás igazgatójaazt mondta: 'A kormányzat képessége a fejlett technológiák megfelelő szabályozására nem áll összhangban e technológiák fejlődésével. Ez lehetővé teszi, hogy sok fejlesztés kellő előzetes értesítés, elemzés, ellenőrzés vagy szabályozás nélkül haladjon a polgárok érdekeinek védelme érdekében (a Facebook kiemelkedő példa ”).
  • NAK NEK a Szilícium-völgy térségében működő egyetem professzoraazt mondta: 'Ha a technológiai fejlődést nem integrálják a holisztikus, ökológiailag fenntartható, politikailag igazságos társadalmi elképzelések elképzelésébe, akkor egyszerűen a kapukkal ellátott és zárt közösségeket szolgálják'.
  • NAK NEKa Association of Computing Machinery Journal szerkesztőbizottságának tagja az autonóm és adaptív rendszerekrőlmegjegyezte: 'Az etikus mesterséges intelligencia fejlesztésével intelligensebb szolgáltatásokat tudunk nyújtani a mindennapi életben, például együttműködő objektumokkal, amelyek igény szerint rendkívül alkalmazkodó szolgáltatásokat nyújtanak a mindennapi életet támogató környezetben.'

Más névtelen válaszadók megjegyezték:

  • 'Alapvető fontosságú, hogy a döntéshozók a közelgő egyenlőtlenségekre összpontosítsanak. A központi kérdés az, hogy kinek lesz jobb az élet, és kinek lesz rosszabb? Néhány ember profitálni fog az AI-ból, de sokan nem. Például a jövedelmi skála középső és alsó végén lévő emberek eltűnnek, amikor az ember-gép / mesterséges intelligencia együttműködések olcsóbbá és hatékonyabbá válnak. Bár az ilyen változások társadalmi előnyökkel járhatnak, nem szabad a közepes és alacsony jövedelműek hátán születniük ”.
  • „Az eredményeket a politikai, büntető igazságszolgáltatási és katonai intézmények képessége határozza meg, hogy alkalmazkodjanak a gyorsan fejlődő technológiákhoz.”
  • 'A legjobb jövő biztosítása érdekében erőfeszítéseket kell tennünk az adattulajdon decentralizálása, az oktatás és az átláthatóság körüli politikák területén'.
  • 'A legtöbb csúcskategóriás mesterséges intelligencia-tudást néhány óriásvállalat ellenőrzi és fogja irányítani, hacsak a kormány vagy az ENSZ jobb verziója nem lép be ezek ellenőrzésére és felügyeletére'.
  • 'A politikai változás meghatározza, hogy az AI technológiák az emberek többségének kedveznek-e vagy sem. Nem vagyok optimista a tekintélyelvű rendszerek jelenlegi növekedése és a szupergazdag elit növekvő szegmense miatt, akik gazdasági dominanciájukból aránytalan hatalmat nyernek a társadalom irányítása felett ”.
  • „Mechanizmusokat kell létrehozni annak biztosítására, hogy az AI előnyei ne csak a nagyvállalatok és részvényeseik számára származzanak. Ha a jelenlegi neoliberális kormányzási tendenciák folytatódnak, az AI hozzáadott értékét néhány meghatározó szereplő ellenőrzi, így az előnyök a legtöbb ember számára nem jelentkeznek. Ki kell egyensúlyozni a hatékonyságot a saját tőkével, amit az utóbbi időben nem tettünk meg ”.

Változtassa meg a gazdasági, politikai és oktatási rendszerek prioritásait annak érdekében, hogy az egyének képesek legyenek előrébb maradni a „robotokkal versenyben”

Ezen szakértők egy része azt javasolja, hogy a politikák, szabályozások, illetve etikai és működési normák megalkotásának a vállalati és kormányzati prioritásokat kell elmozdítaniuk, hogy a profit vagy a nacionalizmus helyett az emberiség globális fejlődésére összpontosítsanak. Arra kérik a főbb szervezeteket, hogy újítsák meg gyakorlataikat, és gondoskodjanak arról, hogy a mesterséges intelligencia előrelépése az emberi növekedésre irányuljon mindenki számára, gazdasági osztálytól függetlenül.

Evan Selinger, a Rochesteri Műszaki Intézet filozófia professzora megjegyezte: 'Annak érdekében, hogy az emberek általában jobban járjanak az AI előrelépésével 2030-ig, egy progresszív politikai menetrend - amely a polgári szabadságjogok és az emberi jogok védelmében gyökerezik, és a társadalmi és gazdasági egyenlőtlenségek növekedésének veszélyeivel szemben tudatosabban - erősebb szerepet kellene játszania a kormányzásban. A jelenlegi események fényében nehéz optimistának lenni abban, hogy egy ilyen menetrend rendelkezik a szükséges forrásokkal, hogy lépést tudjon tartani a mesterséges intelligencia átalakító felhasználásával a társadalom egyre növekvő területein. Az időben történő helyesbítéshez a nagyközönségnek mélyreható értékelést kell kialakítania arról, hogy a piacot, a jólétet és a biztonságot érintő vezető ideológiák miért nem állnak összhangban az emberi virágzással ”.

Az AI „jól csinálta” felhatalmazza.Nicholas Beale

Nicholas Beale, a Sciteb nemzetközi stratégiai és kereső cég stratégiai gyakorlatának vezetője megjegyezte: „Minden attól függ, mennyire felelősségteljesen alkalmazzák az AI-t. Az AI „jól végzett” felhatalmazást ad. De ha a nyugati vezérigazgatók nem javítják etikájukat, az nem fog. A legjobbakat remélem ”.

Benjamin Sesztakofszkij, a Pennsylvaniai Egyetem szociológiai adjunktusa, aki a digitális technológia munkára gyakorolt ​​hatásaira szakosodott, kijelentette: 'A döntéshozóknak fellépniük kell annak biztosítása érdekében, hogy a polgárok hozzáférhessenek az intelligencia-rendszerek életének esélyeit befolyásoló következményeihez kapcsolódó ismeretekhez és az algoritmikus kormányzáshoz. . A válasz erre a kérdésre a polgárok, a munkavállalók, a szervezeti vezetők és a jogalkotók döntéseitől függ, a társadalmi területek széles skáláján. Például algoritmikus felvételi rendszerek programozhatók úgy, hogy prioritásként kezeljék a szervezetek hatékony eredményeit, vagy a munkavállalók tisztességes eredményeit. A technológiai fejlődés által elért nyereség széles körben megosztható, vagy kis számú csúcstechnológiai cég részvényesei megragadhatják azokat ”.

Charles Zheng, a gépi tanulás és a mesterséges intelligencia kutatója az Országos Mentálhigiénés Intézet munkatársa szerint: „A legjobb jövő biztosítása érdekében a politikusokat tájékoztatni kell az mesterséges intelligencia előnyeiről és kockázatairól, valamint törvényeket kell elfogadniuk az ipar szabályozására és a nyílt mesterséges intelligencia-kutatás ösztönzésére. Remélem, hogy az AI algoritmusok jelentősen előrelépnek a természetes nyelv megértésében, valamint az emberek modellezésében és az emberi megértésbenértékek. Attól tartok, hogy az AI előnyei a gazdagokra és a hatalmasokra korlátozódnak, anélkül, hogy hozzáférhetővé válnának a nagyközönség számára ”.

Mary Chayko, a „Superconnected: Az internet, a digitális média és a techno-társadalmi élet” szerzője elmondta: „Látni fogjuk az AI szabályozási felügyeletét az azt használók védelmére. Ennek ellenére az embereknek továbbra is képzetteknek kell maradniuk az AI rájuk gyakorolt ​​hatásairól, és szükség szerint mozgósítaniuk kell a vállalatok és a kormányok hatalmának korlátozásához, hogy behatolhassanak tereikbe, életükbe és polgári jogaikba. Ennek megvalósításához éberségre és kemény munkára lesz szükség, de határozottan úgy érzem, hogy a feladatnak eleget tettünk.

R 'Ray' Wang, a Szilícium-völgyben székhellyel rendelkező Constellation Research alapítója és vezető elemzője elmondta: 'Sokak kezébe nem került az AI irányítása. Valójában a kínai tapasztalatok megmutatták, hogy ez a technológia miként alkalmazható az egyén szabadságainak és jogainak megvonására a biztonság, a hatékonyság, a célszerűség és az állam szeszélyének érdekében. Kereskedelmi oldalon az etikai mesterséges intelligencia terén sincs semmilyen ellenőrzésünk. Öt elemet kell belefoglalni: átláthatóság, magyarázhatóság, reverzibilitás, coachelhetőség és az ember által vezetett folyamatok a tervezésbe ”.

John Willinsky, a Stanfordi Oktatási Egyetem professzora és a közismereti projekt igazgatója elmondta: 'A mesterséges intelligencia olyan felhasználásait, amelyek csökkentik az emberi autonómiát és szabadságot, gondosan mérlegelni kell az emberi élet egyéb tulajdonságaiban rejlő előnyökkel (pl. forgalom és a biztonság növelése). 2030-ig az ilyen kérdésekről folytatott tanácskozások kritikus fontosságúak lesznek az „ember-gép / mesterséges intelligencia együttműködés” működésében. Remélem azonban, hogy ezek a tanácskozások nem az emberi és a mesterséges intelligencia közötti együttműködésként kerülnek kialakításra, hanem úgy tekintenek rá, mint egy másik technológia emberi használata, az ilyen használat bölcsességével, amely nyitva áll a folyamatos emberi megfontolások és beavatkozási szándékok iránt, hogy előmozdítsa a bennünk leg humánusabb érzését ”.

NAK NEKmédiatudomány professzora egy amerikai egyetemenmegjegyezte: „A technológia a szociálpolitika lényeges kifejeződése lesz. Ha ezt a szociálpolitikát igazságosság-orientált demokratikus folyamat útján hajtják végre, akkor nagyobb esélye van az igazságosság-orientált eredmények elérésére. Ha ezt kizárólag kockázatkezeléssel finanszírozott vállalatok hajtják végre, és nem kötelezik őket a közérdekre, akkor 2030-ban a legtöbb ember valószínűleg rosszabb helyzetben lesz ”.

Gene Crick, az Metropolitan Austin Interactive Network igazgatója és a közösségi telekommunikáció régóta foglalkozó szakértője azt írta: 'Az AI jóslása a legtöbb ember számára reményteljesebb, mint bizonyos.… Az AI előnyös lehet a munkahelyi és otthoni életben - ha a versengő menetrendek kiegyensúlyozottak lehetnek. Ennek a fontos célnak a legfontosabb támogatója lehet a technológiai szakemberek elfogadottsága és elkötelezettsége munkánk társadalmi és etikai felelőssége iránt.

Anthony Picciano, a New York City Egyetem interaktív technológiai és pedagógiai programjának oktatója ezt válaszolta: 'Aggódom, hogy a profitmotívumok miatt egyes vállalatok és magánszemélyek olyan AI-alkalmazások fejlesztésére késztetik őket, amelyek veszélyeztetik, és nem feltétlenül javítják életmódunkat. A következő 10 évben evolúciós fejlődést tapasztalhatunk a mesterséges intelligencia fejlesztésében. 2030 után valószínűleg forradalmi fejleményeket fogunk látni, amelyek jelentős következményekkel járnak az emberi törekvések számos vonatkozásában. Ki kell alakítanunk a mesterséges intelligencia ellenőrzését ”.

Bill Woodcock, a globális hálózatfejlesztés mögött álló kutatószervezet, a Packet Clearing House ügyvezető igazgatója így kommentálta: „Rövid távú, gyakorlati szempontból az algoritmusok tanulása időt takarít meg az embereknek azáltal, hogy automatizálja a feladatok nagy részét, például a navigációt, a csomagok kézbesítését és a kapcsok vásárlását. De ez a taktikai győzelem stratégiai veszteséggel jár, mindaddig, amíg az AI elsődleges célja az, hogy több pénzt vonjon ki az emberektől, mert ez ellentétbe hozza őket fajokkal kapcsolatos érdekeinkkel, segítve néhány ember gazdagítását mindenki más kárára. . Az emberi pszichológiai gyengeségeket kiaknázó mesterséges intelligencia során, amely dolgokat árul el nekünk, először hoztunk létre valamit, amely hatékonyan megelőzi a saját fajunkat. Ez alapvetően rossz ötlet, és ugyanolyan szabályozást igényel, mint az önreplikáló biológiai fegyverek ”.

Ethem Alpaydın, az isztambuli Bogazici Egyetem számítástechnikai professzora válaszolt: 'Az AI előnyben részesíti azokat a fejlett országokat, amelyek valóban fejlesztik ezeket a technológiákat. Az AI segít a különböző betegségek gyógyításának megtalálásában, és különböző módon javítja az életkörülményeket. A fejlődő országok számára azonban, amelyek munkaereje többnyire képzetlen és exportja nagyrészt alacsony technológiájú, az AI magasabb munkanélküliséget, alacsonyabb jövedelmet és több társadalmi nyugtalanságot jelent. A mesterséges intelligencia célja az ilyen országokban a munkaerő képességének növelése, nem pedig a kiszorítása. Például az automatikus valós idejű fordítási rendszerek (például a Google Babel fish) lehetővé tennék, hogy az idegen nyelvet nem beszélő emberek munkát találjanak az idegenforgalmi iparban ”.

Joe Whittaker, a volt tudományprofesszor és a NASA GESTAR program munkatársa, a Jackson State University egyetemi prépostja azt mondta: 'Intézkedéseket kell tenni annak érdekében, hogy az internet mindenki számára elérhetővé és hozzáférhetővé váljon, képzést és know-how-t biztosítson minden felhasználó számára' .

John Paschoud, a lewishami londoni kerület tanácsosa azt mondta: - Azlehetségeshogy a mesterséges intelligencia és a hálózatba szervezett információk fejlődése a legtöbb ember számára előnyös lesz, de ez nagymértékben függ attól, hogy ezeket az előnyöket miként osztják meg. Ha „a termelési eszközök tulajdonjogának” hagyományos kapitalista modelljei érvényesülnek, akkor az automatizált termelés előnyei megtartja az a néhány, akinek van, nem az a sok, aki dolgozik. Hasonlóképpen, a lakhatás, az egészségügy stb. Modelljei egyenlően oszthatók el, és mindez technológiával javítható ”.

David kígyók, a németországi Bielefeld Egyetem alkalmazott számítástechnikai nyelvész professzora így válaszolt: „Ha megfelelő szabályokat vezetnek be, és a hirdetésalapú bevételi modelleket úgy lehet ellenőrizni, hogy azokat politikai érdekcsoportok ne tudjanak kihasználni, Az AI-alapú információkeresés és döntéstámogatás óriási. Ez nagy, ha, de inkább optimista maradok ”.

Kate Carruthers, az ausztráliai székhelyű adat- és elemzési főtiszt azt jósolta: 'Az emberek egyre inkább kölcsönhatásba lépnek az AI-vel, és nehéz lesz megtudni, hol vannak a határok a kettő között. Ahogyan a gyerekek most mobiltelefonjukat önmaguk kiterjesztésének tekintik, ugyanúgy lesz az emberi / mesterséges intelligencia integrációja is. Attól tartok, hogy 2030-ig elveszik a demokrácia és a szabadság ügye, így sötétebb jövő lehet. Ennek elkerülése érdekében egy dolgot kell tennünk: gondoskodnunk kell az etikai normák kidolgozásáról az AI fejlesztésére, és gondoskodnunk kell az algoritmikus elfogultság kezeléséről. Be kell építenünk az etikát a fejlesztési folyamatainkba. Feltételezem továbbá, hogy az emberek nyomon követése és nyomon követése az élet elfogadott része lesz, és hogy szigorúbb szabályozás lesz a magánélet és az adatbiztonság terén. Az élet minden aspektusát körülhatárolja az AI, és ez része lesz életünk szövetének.

David Zubrow, a Carnegie Mellon Egyetem Szoftvertechnikai Intézetének empirikus kutatásának munkatársa elmondta: 'Az előrehaladás felhasználása bölcsességet, vezetői és társadalmi normákat és értékeket igényel, amelyek tiszteletben tartják és összpontosítják a világ mindenki jobbá tételét; az oktatás és az egészségügy például eljut a távoli és alulteljesített területekre. A félelem az, hogy az irányítás kevesen konszolidálódnak, akik az emberek, a természet és a technológia kiaknázására törekednek a saját hasznuk érdekében. Remélem, hogy ez nem fog megtörténni.

Francisco S. Melo, a portugál Lisszabonban, az Instituto Superior Técnico informatikai docense így válaszolt: 'Arra számítok, hogy az AI-technológia hozzájárulhat számos szolgáltatás (az egészségügy, a segített életmód stb.) hatékonyabbá és humánusabbá tételéhez, valamint az szélesebb körben elérhető információk hozzájárulnak a társadalmi egyenlőtlenségek mérsékléséhez. Ahhoz azonban, hogy a pozitív elképzelések valósággá váljanak, mind az AI kutatóknak, mind a lakosságnak tisztában kell lenniük az ilyen technológia következményeivel, különösen az információk felhasználásának és manipulálásának módjaival kapcsolatban. A mesterséges intelligencia kutatóinak különösen az átláthatóságra kell törekedniük a munkájukban annak érdekében, hogy demisztifikálják a mesterséges intelligenciát és minimalizálják a visszaélések lehetőségét; A nagyközönségnek viszont arra kell törekednie, hogy a technológia felelősségteljes és tájékozott használatára neveljen ”.

Kyung bűnpark, az internetes törvények szakértője és az Open Net Korea társalapítója válaszolt: „Az AI szoftverekből és képzési adatokból áll. A szoftvereket már elérhetővé teszik nyílt forráskódú alapon. Ami az AI hozzájárulását az emberiséghez fogja eldönteni, az az lesz, hogy (az AI képzésére használt adatokat) igazságosan osztják-e el. Az adatvédelmi törvények és a nyílt adatmozgás remélhetőleg elvégzik azt a feladatot, hogy a több adatot mindenki számára egyformán elérhetővé tegyék. Olyan jövőt képzelek el, ahol az emberek hozzáférhetnek a mesterséges intelligencia által vezérelt tünetek diagnosztizálásához, ami drasztikusan csökkenti az egészségügyi ellátás költségeit mindenki számára ”.

Doug Schepers, a Fizz Studio vezető technológusa elmondta: „Az AI / ML az alkalmazásokban, az önálló készülékekben és járművekben egyes munkákat elavulttá tesz, és az ebből fakadó munkanélküliség bizonyos gazdasági instabilitást okoz, amely kihat az egész társadalomra, de az egyének többségét jobban jár. A szoftverek és a hálózatba kapcsolt rendszerek társadalmi hatása egyre összetettebbé válik, ezért a szoftverügynökökkel kapcsolatos szoftveres problémák enyhítése lehet az egyetlen módja az emberi életben okozott károk csökkentésének, de csak akkor, ha a szoftver célját az egyének és csoportok javára tudjuk összpontosítani, nem pedig vállalatok vagy iparágak ”.

Erik Huesca, a mexikóvárosi székhelyű Tudás és Digitális Kultúra Alapítvány elnöke azt mondta: 'Olyan helyek koncentrációja zajlik, ahol speciális mesterséges intelligenciát fejlesztenek ki. A drága szakemberek pótlására törekvő tőkebefektetés következménye. Az egyetemeknek át kell gondolniuk, hogy milyen típusú diplomákat kell felkészíteniük, különösen az egészségügy, a jogi és a mérnöki területeken, ahol a legnagyobb hatás várható, mivel az orvosok, mérnökök és ügyvédek munkaerő-elmozdulása a kialakult rendszerek mellett valóság.

Stephen Abram, a Lighthouse Consulting Inc. igazgatója, ezt írta: 'Aggódom, hogy az egyedi ügynökségek elvesznek az AI-ben, és hogy megfelelő védintézkedésekkel kell rendelkezni az egyén által meghatározott adatgyűjtés körül. Aggódom, hogy a kormányzati ügynökségek, például az ICE, az IRS, a rendőrség stb. Tévesen értelmezhetik a kontextust. A mesterséges intelligencia-alkalmazások fejlesztése során nagy beszélgetésre van szükség, és örökzöldeknek kell lenniük, mivel az innováció és a kreativitás új fejlesztéseket indít el. Ennek valójában nem egy politikai folyamatnak kell lennie, hanem egy tudományos, független folyamatnak, amelyet elvek vezérelnek, nem pedig a közgazdaságtan és a kereskedelmi egységek ”.

David Klann, a Broadcast Tool & Die tanácsadója és szoftverfejlesztője válaszolt: „Az AI és a kapcsolódó technológiák továbbra is javítják az emberek életét. Hajlamos vagyok az optimizmusra; Ösztönösen hiszem, hogy van elég aktivista, akinek fontos az AI etikája, hogy a technológiát olyan problémák megoldására fogják használni, amelyeket az emberek önmagukban nem tudnak megoldani. Vegyük például a térképezést. Nemrégiben értesültem az egyének számára optimalizált irányok okozta torlódási problémákról. Az emberek most úgy módosítják az algoritmusokat, hogy több ember vegye figyelembe a „leghatékonyabb útvonalat”, amely torlódássá vált, és a megnövekedett forgalom miatt környezeti zavarokat okozott. Úgy gondolom, hogy az emberek olyan AI-algoritmusokat építenek, amelyek megtanulják és „előre gondolkodnak” az ilyen nem szándékos következményekről, és elkerülik őket, mielőtt azok problémává válnának. Természetesen attól tartok, hogy a pénzérdekek továbbra is elsöprő befolyást fognak gyakorolni az AI és a gépi tanulás (ML) felett. Ezeket a teljesen nyilvánosságra hozott technikák, az átláthatóság és a harmadik felek általi felügyelet révén lehet csökkenteni. Ezek a harmadik felek lehetnek kormányzati intézmények vagy nem kormányzati szervezetek, amelyek erővel rendelkeznek a technológiák etikai használatának „érvényesítésére”. A nyílt forráskód és a nyílt ML képzési adatok jelentősen hozzájárulnak ehhez az enyhítéshez ”.

Andrian TeremtA németországi újságíró és dokumentumfilm-készítő elmondta: 'Ha az emberiség hajlandó tanulni hibáiból olyan alacsony szintű mesterséges intelligenciákkal, mint a közösségi média algoritmusai, akkor esély lehet arra, hogy az AI az egyenlőség és a fejlődés motorjaivá váljon. Mivel a digitális fejlődés nagy részét a kockázati tőke vezérli, a tapasztalatok azt mutatják, hogy az automatizálás és a visszaélések lesznek a szokások ”.

Az adatokat elfogulatlanná kell tennünk, mielőtt betesszük őket az AI-be, de ez nem túl egyszerű. Ma Sugimoto

Mai Sugimoto, a japán Kansai Egyetem szociológiai docense válaszolt: 'Az AI felerősítheti az ember elfogultságát és előítéleteit. Az adatokat elfogulatlanná kell tennünk, mielőtt betesszük őket az AI-be, de ez nem túl egyszerű ”.

Névtelen válaszadóazt írta: 'Egyértelműen vannak előrelépések az AI-vel kapcsolatban, de a jelenlegi globális politikai légkör nem utal arra, hogy a technológiai fejlődés bármely területen javítani fogja a legtöbb életet a jövőben. Ökológiailag is gondolkodnunk kell a technológia és más társadalmi változás eseményeinek kölcsönhatásában. Például az orvostechnika megnövelte az élettartamát, de a jelenlegi opioid-válság bizonyos demográfiai adatok között sok életet követelt az Egyesült Államokban ”.

Alapítóés elnökazt mondta: 'Az AI jövője inkább az általunk választott politikákról és a finanszírozásra szánt projektekről szól. Azt gondolom, hogy az AI-ben nagy vállalati érdekek lesznek, amelyek nem szolgálnak mást, csak a profitot és a vállalatok érdekeit. Ez a „rosszak” ereje. Ugyanakkor úgy gondolom, hogy a legtöbb technológus jót akar tenni, és hogy az emberek többsége a közjó irányába akar haladni. Végül azt gondolom, hogy ez az erő győzni fog ”.

A szabályozási rendszerek és a gazdaság egyik vezető stratégája egy vezető globális telekommunikációs cégnélezt írta: „Ha nem törekszünk a társadalom fejlesztésére, a gyengébbek jobbá tételére, akkor az egész rendszer összeomolhat. Tehát az AI jobban szolgálta, hogy mindenki életét megkönnyítse. '

Facebook   twitter