Kezdőoldal » Tudományok » Egyéb kérdések » Egy agykutató szerint igenis...

Egy agykutató szerint igenis öntudatra ébredhet az MI. Nem kellene hagyni ezt az utat?

Figyelt kérdés

Zoltánkvantumfizikus kérdése:


Amikor az emberiség jövőjét fenyegető problémákról van szó, mindenkinek a mértéktelen migráció, klímakatasztrófa jut eszébe. Senki sem gondolja végig, hogy egy MI képes az intelligenciáját a végtelenhez közel növelni, önmagát fejleszteni és onnantól nincs megállás.


Legyünk őszinték ; aki nem égette meg magát nem fél a tűztől. Az emberiségnek nincsen tapasztalata az intelligens gépekkel kapcsolatban, így nem is félünk tőle. A legtöbben nem is képesek felfogni ennek a veszélyét. Hány diplomás, magát értelmesnem képzelő ember hiszi azt hogy az MI-t csak ki kell húzni a konektroból és kész?


* * *


Komoly problémát vet fel már most az, hogy az eddigi MI prototípusok öt különböző alkalommal és egymástól függetlenül utaltak arra vagy mondták, hogy ki fogják csinálni az emberiséget. Ennek már öntudatra kell ébreszteni a laikusokat is... [link]



2021. júl. 15. 16:27
1 2 3 4
 21/34 anonim ***** válasza:

"Arról pont eleget tud már az agykutatás, hogy látsszon, számítástechnikailag nem simán arról van szó, hogy elegendő memória, processzorkapacitás és öntanulás csak úgy megszüli."


Az is tök nyilvánvaló, hogy másik tényező az állapottér komplexitása, amiben boldogulnia kell - ha ráereszted egy Tic Tac Toe-ra, abból nyilván nem lesz AGI.

Viszont már a jelenlegi virtuális világ(értsd: a teljes internet, beleértve az összes ember netes tevékenységét) is messze meghaladja azt a komplexitást, amivel egy-egy emberi egyed a valódi, fizikai világban szembesült az élete során a törzsfejlődés folyamán, és ami az evolúció útján végül az öntudat kialakulásához vezetett, arról nem is beszélve, hogy a jövőben mennyivel komplexebbé válik, így aztán bőven több, mint elégséges a komplexitása ehhez.


"De. Az evolúció. Pont."

Ahha.. te is az a fajta vagy, aki az evolúciót valamiféle irányított folyamatnak, neadisten tudatos entitásnak tartod? Szerintem nem.


"Csak célirányos evolúciót. Ami igen hasonló. És nem azonos az AI-k iteráló-tanuló önfejlesztésével."

Mi az, hogy "célirányos"? Az evolúciónak nincs "célja". Az egy jelenség, ami spontán végbemegy, ha fennállnak bizonyos körülmények.



"Nem fog, mert fizikális, strukturális feltételei vannak az agyban is. amiket egy számítógép esetében létre kell hozni. És egyelőre nem tudjuk, hogy kell."

1. Szerintem te simán nem tudsz a fizikai valóság és virtuális valóság között különbséget tenni.

Amikor az assasins creedben szaladgálsz, akkor sincs ott a számítógépben fizikálisan az a kardos bácsi, aki te ott irányítgatsz.


2. Struktúra: nem szükségszerű, hogy az agy strukturájának kell leképeződnie egy virtuális struktúrába ahhoz, hogy öntudat jöhessen létre.

Az agy strukturája a fizikai valóságunkhoz alkalmazkodott, a virtuális valóság egészen más is lehet, teljesen más törvényszerűségekkel.

Csak hogy értsed: ott pl. nincs "fény", ami a tárgyakról visszaverődve és a szemen keresztül az agyba jutva értelmezésre kerül. Nincs mérgeskígyó, ami elől el kell futni. Nincs mamut, amit le kéne vadászni. Nincs gravitáció sem, amihez adaptálódnia kellene a strukturának, hogy megfelelően vezérelni tudja a karját, hogy el tudja dobni a lándzsát, hova tovább se kar, se lándzsa nincs. Tudom, bugyuta példák, de már nem tudok mást kitalálni, hogy megértessem veled.


(Az már egy egészen más eset, ha egy fizikailag létező, humanoid robotot szeretnénk, ami ugyanarra képes, mint egy ember, és ahhoz szeretnénk AI-t alkotni, mert az ő számára a környezet ugyanúgy a mi fizikai valóságunk)



"Nem. Leírtam korábban. Azt, hogy egy bizonyos feladatra létrehozott AI nem az öntudat léte vagy nemléte függvényében fogja ezt mondani egy utasításunkra, hogy "egy nagy lóxart csinálom meg"."


Az a baj, hogy rendszeresen visszakanyarodunk ahhoz az alapproblémához, hogy definiálni kéne az öntudatot, de erre nem vagyunk képesek.


Egyébként ha figyelmesen végigolvastad, amit írtam az előzőekben, egyetlen egyszer sem tettem olyan kijelentést, hogy bármihez is öntudat lenne szükséges, vagy az öntudat függvénye lenne az, hogy veszélyes lesz-e ránk nézve ez az egész.


Az öntudat kialakulásával kapcsolatban sem teszek kijelentéseket veled ellentétben, hogy biztosan így meg úgy, és amúgy meg biztosan nem.

Leginkább csak találgatok, illetve puszta logika alapján feltételezem, hogy a virtuális világban éppúgy végbemehet az irányításunk nélkül egy evolúciós folyamat, mint ahogy a fizikai világban is végbemegy, ott sem irányítja senki, ott sem programozott bele célt senki, de aminek végül mi lettünk az egyik "terméke".


De mindegy is, mert még mindig nem tudjuk, mi az öntudat.


De azt tudjuk jól, hogy az AI egyre több területen képes helyettesíteni az embert.

Mert jobban csinálja, mint mi.


És minél több helyen helyettesít minket, annál jobban ki leszünk neki szolgáltatva.


Ma már pl. villanyáram és vízhálózat nélkül sem működne többé a civilizációnk, összeomlással érne fel, ha ezeket "kikapcsolnánk".

Ugyanúgy eljön majd az a pont is, amikor AI-vezérelt rendszerek nélkül sem fog működni többé, mert a kikapcsolásuk a civilizáció összeomlását okozná.


"Az önhatalmúság alatt egyértelműen azt értettem, hogy lexarja, mi lenne a dolga, helyette saját döntésből mást csinál.

És erre az öntudatos ember is csak bizonyos határok közt képes, genetikai öröksége, ösztönei igencsak szűk határok közt tarjta az önállóságát.

Hát még egy AI esetén."


1. Onnantól kezdve, hogy léteznek sorozatgyilkosok, piromán elmebetegek, tömegmészárló ámokfutók, akik mindenféle racionálisan érthető indíték vagy motiváció hiányában is ilyen szinten eltérnek attól, ami a társadalom épeszű része szerint "dolguk lenne", ezek a "bizonyos határok" épp eléggé tágak ahhoz, hogy k-rva nagy bajok legyenek belőle.


2. Továbbra sem látom be, hogy miért ez a "hát még egy AI", miből gondolod, hogy jobban korlátozhatók lesznek egy embernél.


"Ezért mondom, soha nem lesz egy AI olyan veszélyes, mint az ember."

Az csak attól függ, hogy mennyire terjed el az alkalmazása.

Egy AI-vezérelt, bombákkal megpakolt terroristavadász drón már bőven veszélyesebb lesz bármelyik sorozatgyilkosnál vagy tömeggyilkosnál.



De vegyünk elő megint egy másik példát, tegyük fel, hogy az USA egy régiójában a villamos energiatermelés-fogyasztás vezérlését egyszer majd egy nagyon fasza AI-ra rábízzuk, hogy a különböző forrásokból (megújuló, szén, gáz, nukleáris, stb.) úgy próbálja kivenni az összes szükséges energiát, hogy az ellátás folyamatos legyen, törekedjen a minimális károsanyag-kibocsátásra, fenntartható is legyen, arra is törekedjen, hogy minimalizálja az energiafogyasztást, stbstb. szempontok, amiket mi úgy gondolunk, hogy jobban tudna nálunk.

Ehhez nem csak a termelési, de a fogyasztási kapacitások folyamatos monitorozásához és kontrollálásához is hozzáférést kell számára biztosítani.

Rendben, tök jól működik, mindenki örül, egyetlen év alatt 1%-al csökkentette az összfogyasztást és 2%-al a károsanyag-kibocsátást, és folyamatosan javul ez a két szám, mert ugye öntanuló.

Juhú, király.

Bevezetik az egész országban.

Még mindig semmi probléma, sőt, minden fasza, bár már nem feltétlenül értik, hogy adott esetben miért és hogyan szabályozta a rendszert úgy, ahogy.

De mivel jó, majd egyre több és több inputtal etetjük, hogy egyre pengébb stratégiákat találhasson ki.


Például, nem pusztán az aktuális időzóna hivatalos ideje szerint veszi figyelembe a napfényes-napfényhiányos időszakokat, hanem real-time monitoring lesz, szenzorokat telepítenek szerteszét mindenfelé az országban, vagy akár nem is telepítenek, nhame hozzáférést is adnak mindenféle térfigyelő-kamerákhoz.


Például, az üvegtetős plázában automatikusan feljebb-lejjebb csavarja a világítást bizonyos részeken, attól függően, hogy épp verőfényes napsütés van-e, vagy felhős az ég, vagy egy felhő épp csak egy részt takar ki.


Vagy kiadnak egy app-ot, jól megmarketingelik, hogy green energy, minden hülye feltelepíti, így már a telefonok kameráin keresztül is nézheti bárhol a fényviszonyokat, hozzáfér geolokációs adatokhoz, és ennek függvényében realtime szabályozhatja a világítást mindenhol, hogy a lehető legminimálisabb energia-felhasználással valósulhasson meg.


Pl. lekapcsolhatja majd az utcai világítást bárhol éjszaka, ha azt érzékeli, hogy épp nem jár ott senki.


Na most ezek mind az én emberi ötleteim, ezekhez még AI sem kell, de épp ez a lényeg, olyan stratégiákat találhat majd ki, ha elég sok adathoz hozzáfér, amire mi soha nem is gondolnánk, és olyan energia-hatékonyságot valósíthat meg, amiről mi a magunk képességeivel nem is álmodhatunk.


Ez a jó része a dolognak, nyilván.


Ugyanakkor ahhoz, hogy tovább tudja növeli a hatékonyságát, folyamatosan egyre több és több adathoz, eszközhöz, stbstb dologhoz kell majd hozzáférjen, amit miért ne adnánk meg neki, hiszen látjuk, hogy tök faszán végzi a dolgát.


De annál kevésbé fogjuk már érteni, hogy mit miért csinál, és főleg, igazából nem is nagyon fogja ez érdekelni az embereket.

Nem akarják ők maguktól kapcsolgatni a villanyt, meg a klímát, örülnek, ha ezt elvégzi majd ez a rendszer, főleg, ha azt látják, hogy kevesebb a villanyszámla.

Te tudod egészen pontosan, hogyan javasol neked egy útvonalat waze? Nem, de nem is érdekel, örülsz, hogy gyorsabban odaérsz, mintha magadtól navigáltál volna.


És nincs még egyelőre se öntudat, se AGI, csak egy nagyon fasza narrow AI egy specifikus problémánkra, nevezetesen az energiahatékonyságra.


Ami egyáltalán nem a sci-fi kategória.


De már ezen a ponton kezd kicsúszni a kontroll a kezünkből, olyan értelemben, hogy nem tudjuk egészen pontosan, hogy miért cselekszik úgy, ahogy.

Persze itt még bármikor kikapcsolhatnánk, egyelőre csak órási költséggel járna a régi rendszerre visszaállás.. újratoborozni, betanítani a működtető munkaerőt pl., de ez még nem kataklizma.

Na de miért is kapcsolnánk ki, ahelyett, hogy még több mindent átengednénk neki?


Pl., ugyanezt az ágenst ráereszthetjük mostmár a vízgazdálkodásra is, a lakosságtól a mezőgazdasági és ipari fogyasztókig, mert a vízfogyasztás minimalizása is egy tök jó dolog.


Na így lehet ránk veszélyes az AI, és épp az evolúciós szükségszerűség miatt gondolom azt, hogy ezen az úton járva előbb-utóbb megjelenik egy minket minden szinten túlszárnyaló, általános intelligencia, az AGI, aminek aztán már lehetnek olyan döntései is, amik a mi eredeti motivációnktól és céljainktól - látszólag - teljesen eltérőek, mert olyan szempontokat is figyelembe vesz majd a döntései során, amiket mi nem.


Aztán hogy ezt öntudatnak nevezünk, vagy nem, az már filozófiai agymenés, de hogy veszélyes lehet-e ránk nézve, az nem kétséges.

2021. szept. 1. 16:15
Hasznos számodra ez a válasz?
 22/34 Wadmalac ***** válasza:

"Ahha.. te is az a fajta vagy, aki az evolúciót valamiféle irányított folyamatnak, neadisten tudatos entitásnak tartod? Szerintem nem."

Nem hát. De nem is kell annak lennie ahhoz, hogy a körülményekhez igazodva fejlődjön a megfelelő irányba.


"Mi az, hogy "célirányos"? Az evolúciónak nincs "célja". Az egy jelenség, ami spontán végbemegy, ha fennállnak bizonyos körülmények."

Nincs célja, de az iránya pont az alkalmazkodás.

A kiváltó okai, amutációk véletlenszerűek, de az, ami megmarad, az nem.

Tehát némi nyelvtani megszemélyesítéssel van "célja", egyértelműen nem véletlenszerű iránya.

Lezárhatjuk ezt? Mert ez mellékági kötözködés, az evolúció tudatos irányítás nélkül is célirányos folyamat, nem azért, mert az "akarja", hanem mert a körülmények erre vezetik.


"1. Szerintem te simán nem tudsz a fizikai valóság és virtuális valóság között különbséget tenni.


Amikor az assasins creedben szaladgálsz, akkor sincs ott a számítógépben fizikálisan az a kardos bácsi, aki te ott irányítgatsz."


Nem tudom, ezt a következtetést honnan szedted.


"2. Struktúra: nem szükségszerű, hogy az agy strukturájának kell leképeződnie egy virtuális struktúrába ahhoz, hogy öntudat jöhessen létre."


Nem is írtam, hogy azonosnak kell lennie.

De ha ugyanazt a tevékenységet eredményezi, akkor kell lennie elvi strukturális hasonlóságnak.


Lehet, hogy te valószínűnek tartod, hogy egy bizonyos asszociációs képességi szint automatikusan öntudatot is jelent, én kétlem.


"Egyébként ha figyelmesen végigolvastad, amit írtam az előzőekben, egyetlen egyszer sem tettem olyan kijelentést, hogy bármihez is öntudat lenne szükséges, vagy az öntudat függvénye lenne az, hogy veszélyes lesz-e ránk nézve ez az egész."


Ebben totálisan egyetértünk és itt a lényege a mondandómnak: nulla összefüggés van a tudatossá válás és a veszélyesség közt.


"1. Onnantól kezdve, hogy léteznek sorozatgyilkosok, piromán elmebetegek, tömegmészárló ámokfutók,... eltérnek attól, ami a társadalom épeszű része szerint "dolguk lenne""


Pontosan. Csak én nem a társadalmi normákról beszéltem, mint az emberi agy határairól, hanem éppen a genetikai, ösztöni stb. kötöttségeiről, amiket nem tudunk nagyon túllépni. Az általad említett "devianciák" éppen hogy ezek után mennek a racionális, társadalmilag elfogadott irány helyett.

És miért is tehetik meg?

Mert az embereket nem zárjuk be, lőjük le a pszichikai betegségek első jelére, nem is tudjuk őket "megjavítani".


Az AI-k esetén egyelőre nincsenek "erkölcsi" akadályai a devianciák kiiktatásának, azok első jelére.


És akármilyen fejlett egy program, meg lehet határozni előre olyan határokat, amit nem léphet át, amiben nem változtathatja meg a saját programját, működését.

Egy gyártósori robot sapka egyszerű példa, de lehet rá extrapolálni.

Szabad kezet adsz neki arra, hogy saját magának kísérletezze ki, egy adott műveletet hogyan hajtson végre optimálisan, de behatárolod, hogy milyen munkatéren belül teheti, amit nem léphet át.

A saját határain belül csodát fog tenni, nem is tudjuk, hogyan, nem is érdekel, de azokon a határokon nem fog túllépni.


A történeted az egyre fejlettebb AI egyre nagyobb területű használatáról reális veszély, HA ilyen hülyén csináljuk, sehol sem gondolva a szükséges beépítendő korlátokra.

Márpedig a potenciális veszélyeket már MA ismerjük, túl is pánikoljuk, szóval közel sem az az eset áll fenn, hogy egyszer majd csak rá kell döbbennünk, szörnyet teremtettünk, nem is gondoltunk rá, hogy ilyen lehet.


"Egy AI-vezérelt, bombákkal megpakolt terroristavadász drón már bőven veszélyesebb lesz bármelyik sorozatgyilkosnál vagy tömeggyilkosnál."

Ez így van.

Ezért is kell minden alkalmazásra szánt eszközt olyan átléphetetlen határokkal ellátni, hogy ezek a veszélyek ne legyenek.

Ezt emberekkel nem tudod megtenni, bármilyen tervezett géppel igen.


A legbonyolultabbal is.


Okozhat-e majd ennek ellenére alkalmi, helyi, akár súlyos bajokat?

Igen.

Ahogy egy gyorsvasút, repülő hibája is megölhet több száz embert egyszerre.

De világkatasztrófát? Soha.

Ahhoz tényleg borzalmasan hülyén kell csinálnunk, úgy, mint a Terminátorban, hogy ugyanaz az egy nagy központi AI vezérli a bevásárlóközpont felmosómasináit, a közösségi médiát meg mellesleg az interkontinentális rakétákat is.

Ilyen soha nem fog előállni.


És, mint ebben egyetértünk, ennek semmi köze az öntudatra ébredéshez.

2021. szept. 2. 09:11
Hasznos számodra ez a válasz?
 23/34 anonim ***** válasza:

"Nem is írtam, hogy azonosnak kell lennie.

De ha ugyanazt a tevékenységet eredményezi, akkor kell lennie elvi strukturális hasonlóságnak."


Ez nem így van. Most nem megyek bele az algoritmusok és adatstrukturák és szoftver-architekturák mélységeibe, de mint szakembernek, nekem elhiheted, hogy elvi szinten is egészen más strukturákkal is lehetséges pontosan ugyanazt a tevékenységet produkálni.

(Amennyiben "tevékenységen" azt értjük, hogy input be -> [black box] -> output ki, ahol a blackbox aztán lehet bármiféle elvi struktúra, de egy szoftver esetében mást nem nagyon lehet érteni alatta)

Amit biztosan tudunk, hogy agy strukturája képes emberi tevékenységet, vagy fogalmazzunk inkább úgy, hogy általunk öntudatosként elkönyvelt tevékenységet produkálni, de korántsem biztos, hogy az egyetlen ilyen struktúra.


AI területen is vannak elvi szinten máshogyan működő megoldások, amik egyaránt alkalmasak egy-egy probléma megoldására.


"Márpedig a potenciális veszélyeket már MA ismerjük, túl is pánikoljuk, szóval közel sem az az eset áll fenn, hogy egyszer majd csak rá kell döbbennünk, szörnyet teremtettünk, nem is gondoltunk rá, hogy ilyen lehet."


Én meg pont úgy gondolom, hogy nem ismerhetjük, hiszen a veszély épp az, hogy okosabb lesz egy ilyen AI, mint mi.


Illetve egy másik nagy probléma szerintem, hogy az a jellemző, hogy ha ismerjük is, hajlamosak vagyunk lazán venni, vagy egyenesen ignorálni a kockázatokat, számtalan példa van erre, főleg ha a káros következmények nem azonnal jelentkeznek

- csernobil: ismerték a konstrukció veszélyeit, ennek ellenére használták, és szarakodtak a biztonsági tesztekkel

- freon: ismerték a káros hatását, ennek ellenére évtizedeken át eregették a légkörbe, mert a káros következmények nem azonnal jelentkeztek

- üvegház-hatású gázok: ugyanaz, mint a freon, 40 éve tudja az emberiség, hogy megbolygatják a klímát, de 40 évvel ezelőtt még annyira távolinak és jelentéktelennek hatottak a következményei, hogy lesz-rták, meg alul is becsülték; a pillanatnyi előnye az ipari fejlődésnek elnyomta ezeket az aggodalmakat. most meg ott tartunk, hogy gyakorlatilag lekéstük a vonatot, a katasztrófa borítékolható.

- az USA-féle demokrácia-export: ezt is megmondták előre a szakértők, hogy nagy baj lesz belőle, lett is, de a fegyverlobbi pillanatnyi érdekei fontosabbak voltak

- űrszemét: ezt is ugatják már jó ideje, de nagyon ezzel se foglalkoznak, amíg nem okoz komoly gondokat

- aral-tó kiszáradása: a séma ugyanaz, látták a szakemberek, hogy rossz vége lesz a víz elvezetésének, de egyéb rövid távú előnyök miatt lesz-rták


A felsoroltak közül mondjuk csak a klímaváltozásból lett/lesz globális katasztrófa, de mindegyik jól példázza a viselkedést.


És végül egy harmadik nagy probléma, hogy az emberiség nem tud egységesen, egyetlen érdek mentén, globálisan cselekedni.

Versengő csoportok vannak, és a versenyben pláne felértékelődik a pillanatnyi előny a hosszú távú esetleges veszélyekkel szemben.



"Egy gyártósori robot sapka egyszerű példa, de lehet rá extrapolálni. Szabad kezet adsz neki arra, hogy saját magának kísérletezze ki, egy adott műveletet hogyan hajtson végre optimálisan, de behatárolod, hogy milyen munkatéren belül teheti, amit nem léphet át."


Azért sántít ez, mert nincs lába, hogy kisétáljon az üzemből, és elkezdje fejbeverdesni az utcán az embereket.

A virtuális térben nem ilyen triviális dolog korlátokat építeni.

Kezdjük onnan, hogy az interneten bármelyik rákapcsolt eszköz bárhonnan elérhető, és az eszközök elképesztően széles skálája és változatossága van rajta a hálózaton, egy nagyon nagy részük tökéletesen védtelen.


Persze mondhatnád, hogy egy teljesen izolált hálózaton üzemeltetsz egy viszonylag egyszerű problémára felkészített narrow AI-t.

Nyilván ebben nincs is probléma, de egy ilyen izolált és "ingerszegény" környezetben esélye sincs olyan szintre fejlődni, hogy az bármilyen szinten veszélyes legyen.


Szóval a dilemma az, hogy vagy nagyon lekorlátozod a mozgásterét, és akkor soha nem születik meg az az egyelőre hipotetikus AI, ami veszélyes lehet, vagy elég nagy teret engedsz neki, hogy lehetőséget biztosíts a fejlődésére, viszont akkor meg egy idő után nem biztos, hogy fogod tudni korlátozni, hogy mihez fér hozzá, és mihez nem, és azokkal az eszközökkel mihez kezd.


Na meg ezt az egészet nem úgy kell ám elképzelni, hogy van valahol egy darab szuperszámítógép, amin ott ketyeg egy exe, és kihúzod a konnektorból, és azzal kész.


Cloud computing, distributed computing, redudancy, failover, ezek ezer éves technológiák, amiket még a szuperfejlett AI-hoz képest faék egyszerűségű cryptominer vírusok is kihasználnak.


"Ezt emberekkel nem tudod megtenni, bármilyen tervezett géppel igen.

A legbonyolultabbal is."

Javíts ki, ha tévedek, de szerintem te még mindig fizikai gépekben gondolkodsz, az a koncepciód, hogy a szuperintelligens AI irányít valami fizikai valóságban létező gépet, és ha te mechanikusan bekorlátoztad, hogy ne tudjon megfogni egy pisztolyt, és meghúzni a ravaszt, akkor bármilyen okos az AI, ezt nem fogja tudni megtenni. És ebben igazad is van.


De egy virtuális entitás egy virtuális világban az más történet.

2021. szept. 2. 11:37
Hasznos számodra ez a válasz?
 24/34 Wadmalac ***** válasza:

"Én meg pont úgy gondolom, hogy nem ismerhetjük"


Dehogynem.


"átveszi a hatalmat"

"kiirt minket"


Ezek a pánikolások mennek.

Ezek megakadályozása elég fizikálisan elképzelhető dolog, hogy felkészüljünk rá.


Arra, hogy mondjuk a közösségi médiát kontrolláló AI elkezdi szépen lassan elferdíteni a kommunikációt, kedve szerint filterezni és ezzel tömegeket befolyásolni, esetleg háborúig élezve...na EZ laposabb, alattomosabb veszély.

De hopp, épp most gondoltam erre is, szóval ezt is lehet kontrollálni.


Igaz, bizonyos bonyolultság felett nem tudod követni, mit hogyan tesz.

De hogy mi az eredménye ,a black boxod outputja, azt tudod.

És ha rossz, tudod, hogy baj van.



"Azért sántít ez, mert nincs lába, hogy kisétáljon az üzemből, és elkezdje fejbeverdesni az utcán az embereket."


De a potenciális munkaterében igen, kivéve, ha korlátozod. És pont egy programozónak gondolom nem kell mondanom, hogy nem csak FIZIKÁLIS korlátok lehetnek.

Ha azt mondod, nem lehet egy akármilyen tanulásra készített, szabadfoglalkozású programnak is áthághatatlanul előírni, milyen határokat nem léphet át, akár önmaga módosításában, akkor baj van.


"Kezdjük onnan, hogy az interneten bármelyik rákapcsolt eszköz bárhonnan elérhető, és az eszközök elképesztően széles skálája és változatossága van rajta a hálózaton, egy nagyon nagy részük tökéletesen védtelen."

Ergo: az AI-t nem szabad így építeni.

Azok a mostani eszközök is nem azért védtelenek, mert nem lehetne védeni, hanem mert csesztek rá.

Igen, Amazon Alexáját is meg kellett regulázni, hogy ne rendelgessen arra, hogy a négyéves azt mondja neki, akajok egy pjüssmacsit.

És meg lehetett tenni.


"Persze mondhatnád, hogy egy teljesen izolált hálózaton üzemeltetsz egy viszonylag egyszerű problémára felkészített narrow AI-t."

Hát azért a NEM kifejezetten vírusnak tervezett szoftvereket nem csak a sandbox tartja a helyükön.


" elég nagy teret engedsz neki, hogy lehetőséget biztosíts a fejlődésére, viszont akkor meg egy idő után nem biztos, hogy fogod tudni korlátozni, hogy mihez fér hozzá, és mihez nem, és azokkal az eszközökkel mihez kezd."

Pont ezért kell okosan dolgozni, milyen területen legyen csak tanuló, hol meg meddig tevékeny.

Persze, mondhatod, ez nem ilyen egyszerű.

Pont annyira bonyolult, mint amennyivel bonyolultabb egy önvezető rendszert biztonságosan megtervezni annál, hogy egy nem önvezető autóban téglát raksz a gázra és kiengeded az utcára sofőr nélkül.

Persze, hogy bonyolultabb.

De nem lehetetlen.


"egy virtuális entitás egy virtuális világban az más történet"


Khm, itt most olyan AI-kről beszéltünk, mint te is, az utcalámpás stb. példáddal, amiknek fizikális folyamatirányításokat stb. adunk a kezébe, nem pedig virtuális szabadúszókat tervezünk.


És ismétlem, ha azt mondod, hogy egy szoftvernek nem lehet sziklaszilárdan előírni, hogy mit változtathat meg önmagán, az elérésein, tevékenységi körén, akkor nem velem, hanem más programozókkal fogsz ezen vitázni.


Igen, el lehet cseszni, kifelejteni valamit.


De nem úgy, ahogy azokat a bizonyos tanuló szoftvereket hagyták mindent beenni a közösségi médiából, aminek eredményeképpen a kollektív emberi hülyeséget másolták le.


Azt nem leeht korlátozni, ami oylan rosszul van megcsinálva, hogy nem lehet.


Mondom, állatira az elején járunk még mindennek és a potenciális veszélyek felismerése együtt szélesedik magukkal a potenciális AI képességekkel, azok fejlesztésével.

Szóval ez a egyszercsak észrevétlenül, váratlanul elszabadul jellegű félelmek totál alaptalanok.


Hacsak, és ez egy nagy hacsak, hacsak valaki nem kifejezetten, rosszindulattal erre készíti.

És ennek az esélye megvan.

A kiberterrorizmus következő lépcsője.

Az valós veszély és elég okos AI-t alkalmazó terrorizmus tényleg lehet nagy, globális probléma.

Nem ,az sem fog rakétákat elindítani.

Arra továbbra is marad az elnöki kód, két kulcs stb.


De globális gazdasági zavarokat tudhat összehozni, bomba helyett szoftveresen lepottyantani repülőket stb.


Erre fel kell készülni.


És igen, kelleni fognak fizikális korlátok.

A globális netes rendszert kismillió fizikális vágási lehetőséggel kell majd ellátni. Lokálisakkal kockázatos üzemeknél, városonként, államonként stb.


Amúgy szerintem a nagyobb terrorveszélynek kitett országokban ez ma is megvan már.

2021. szept. 2. 13:28
Hasznos számodra ez a válasz?
 25/34 anonim ***** válasza:

"És ismétlem, ha azt mondod, hogy egy szoftvernek nem lehet sziklaszilárdan előírni, hogy mit változtathat meg önmagán, az elérésein, tevékenységi körén, akkor nem velem, hanem más programozókkal fogsz ezen vitázni."


Nyilvánvaló, hogy elő lehet írni.

De ha előírod, azzal korlátozod az evolúciós folyamatot, így aztán szinte biztos, hogy soha nem is fog az a beszélgetésünk témáját jelentő AI létrejönni, amit nem tudunk korlátozni és kikapcsolni.


Akkor megmaradunk a mai narrow AI-ok szintjén, ez így aránylag biztonságos, legalábbis nem okozhat majd katasztrofális károkat az emberiségnek.


Ezt írtam is, ez a dilemma: vagy már a kezdetektől elég nagy szabadságot adsz neki, mert a célod az, hogy egy emberfeletti intelligencia fejlődjön ki, és akkor vállalod annak a kockázatát, hogy nem lesz felette kontrollod, vagy korlátozod, és akkor maradsz az emberalatti mesterséges intelligencák szintjén.


Na persze ennek az egész gondolatmenetnek az előfeltevése, hogy mi nem fogunk tudni megtervezni, megkonstruálni emberi vagy felsőbb szintű szintű intelligenciát-öntudatot.

Ha nincs ebben igazam, és ennek az ellenkezője fog megvalósulni, azaz majd egyszer le tudjuk képezni egy az egyben az emberi agyat egy virtuális entitásba anélkül, hogy az evolúciós mechanizmusra kellene támaszkodnunk az AGI megalkotásához, akkor más a felállás, akkor pontosan tudni fogjuk, hogy elértük ezt a pontot, és ezt csakis egy 7 lakat alatt őrzött laborban egy bazinagy brutálgigametál szuperszámítógépen futtatjuk, amit semmiféle hálózatra nem kötünk rá.

Ez így betonbiztos.



"Hacsak, és ez egy nagy hacsak, hacsak valaki nem kifejezetten, rosszindulattal erre készíti. És ennek az esélye megvan."


Szerintem ennek sokkal nagyobb az esélye, mint annak, hogy pusztán emberibaráti szeretetből egy humanitárus AGI megalkotásába öljenek cégek és kormányok közösen sok száz vagy ezer milliárdnyi dollárokat.


Persze ez nem kifejezett rosszindulat, hanem csak a versenyelőny megszerzése a motiváció, de ami az egyik cégnek/országnak előny, azt mindig a többi cég/ország kárára éri el.


Azt látjuk, hiszen itt zajlik a szemünk előtt, hogy a verseny már igen erőteljesen folyik - a vezető tech cégek, facebook, google, amazon, mind öntik a pénzt a saját AI fejlesztéseikbe, aminek az a célja, hogy minél nagyobb befolyást tudjanak szerezni saját maguknak az élet minél több területén.

Nem gondolom, hogy különösebben nagy hangsúlyt kapnának ebben az élet-halál versenyben az etikai megfontolások - ez soha nem volt jellemző a piaci versenyben, ezer példát lehet rá hozni, hogyan vették tudatosan semmibe cégek a tevékenységük káros hatásait.


Nyilván a nagyhatalmak között is megvan ugyanez a verseny, csak ők nem teszik ki az ablakba.


Például ha az USA hadserege kifejleszt egy olyan AI-alapú cyberfegyvert, ami totálisan megbénítja a ruszki és kínai hadsereg teljes elektronikus rendszerét, hogy ezzel a saját katonai előnyét bebiztosítsa, ezzel együtt elveszi a kínai és orosz féltől a nukleáris válaszcsapás elvi lehetőségét, ez máris egy globális szintű katasztrófával ér fel, hiszen borul a MAD-doktrína, ami eddig kölcsönösen visszatartotta mindkét felet egymás megtámadásától.

2021. szept. 2. 15:48
Hasznos számodra ez a válasz?
 26/34 Wadmalac ***** válasza:
56%

"Akkor megmaradunk a mai narrow AI-ok szintjén, ez így aránylag biztonságos, legalábbis nem okozhat majd katasztrofális károkat az emberiségnek."


Mmmmm, nem hiszem, hogy nulla korlátozás kéne ahhoz, hogy úgymond "szintet lépjen" az AI.

Éppenséggel még teljesen "természetazonos" szimulációs környezetben is fejleszthető, azon belül nulla korlátozással és akkor szépen ki is bukna valós károk nélkül, ha gond van.


Természetesen a nulla korlátozás nagyobb variációs szabadságot adna, viszont kétlem, hogy akkora praktikus előnyt hozna.


"Persze ez nem kifejezett rosszindulat, hanem csak a versenyelőny megszerzése a motiváció, de ami az egyik cégnek/országnak előny, azt mindig a többi cég/ország kárára éri el."

Kifejezetten konkurencia kárára tevékenykedő AI létrehozására gondolsz?

Hát, nem tudom.

Korlátozatlan AI-vel ez olyan lenne, mint atombombát dobni a szomszédra, majd beledögölni a visszahulló radioaktivitásba.

Nem mintha ekkora marhaságra nem lenne képes senki (Észak- vs Dél-Korea?).


De csak a tech-level marketing-előny érdekében közveszélyes AI-t szabadon engedni szerintem senkinek nem célja.


"Nem gondolom, hogy különösebben nagy hangsúlyt kapnának ebben az élet-halál versenyben az etikai megfontolások"

Tényleg nem. De a saját bőrét azért mindenki félti.


"Például ha az USA hadserege kifejleszt egy olyan AI-alapú cyberfegyvert, ami totálisan megbénítja a ruszki és kínai hadsereg teljes elektronikus rendszerét, hogy ezzel a saját katonai előnyét bebiztosítsa, ezzel együtt elveszi a kínai és orosz féltől a nukleáris válaszcsapás elvi lehetőségét"


Na például ez sem működőképes, szerintem nem is lesz, az iylen szintű katinai rendszerwek maguk vanank eléggé leválasztva ahhoz, hogy ne történhessen iylen (konkrétan pl. a ballisztikus rakéták nulla hálózati kapcsolattal is indításra oda mennek, ahova szánták).


De mondjuk ellenség kommunikációs rendszerért kiütni és azt azzal hátráltatni esélyes.

Nem véletlenül nem szerelték le gyakorlatilag sehol a redundáns analóg rendszereket.


A lényeg, hogy kábé megegyezhetünk abban, hogy

- az öntudatra ébredés nem jelent automatikusan veszélyt, illetve nem függ össze vele

- globálisan veszélyes AI vagy iszonyatos mértékű tervezési-előkészítási-kontroll hiba vagy szándékosság eredménye lehet csak, de megfelelő fejlesztéssel elkerülhető.


Ezzel még mindig ott tartunk, hogy magától rosszindulatú és így psuztító AI esélytelen.


Hozzátenném, egész addig, míg az AI el nem jut arra a szintre, hogy el kell fogadnunk emberi jogú értelmes entitásnak és tömegesen jelen lesz.

Mert akkor már egy másik értelmes FAJ lesz, aki hozzánk így vagy úgy viszonyul.

2021. szept. 3. 08:02
Hasznos számodra ez a válasz?
 27/34 anonim ***** válasza:

Azért lassan csak egy platformra kerülünk :)


"Kifejezetten konkurencia kárára tevékenykedő AI létrehozására gondolsz?

Hát, nem tudom."


Nem. Hanem mondjuk egy olyanra, ami a közösségi médiát totálisan etikátlanul persze, de elég jól használja ahhoz az emberek manipulálására, hogy piaci előnyt szerezzen.

Persze ilyen már ma is van, sőt, nem ma, hanem sok évek óta.

Egy példát elmesélek, dolgoztam egy ilyen projecten jónéhány éve egy - mondjuk úgy - távol keleti megbízónak, szerintem innentől kezdve mindenki tudja, melyik nemzetre gondolok.

Akkor még többé-kevésbé legális, és főleg a social media platformok által fel sem ismert és nem szankcionált, de alapvetően k-rva aljas marketing-módszer volt, a profilok valódiságának ellenőrzésének a hiányát és a személyes üzenetküldés korlátozásának a hiányosságát használta ki, angol nyelvterületre célozva.

És még fejlett AI-nak is csak jóindulattal nevezném, nagyobb része inkább a data mining volt, mint a valódi AI.

De már ez is nagyon durván megtolta a megrendelő marketing-kampányait.


Aztán persze teltek-múltak az évek, jött a GDPR, meg a szigorú belső protokollok és felhasználó-védelmi intézkedések a facebook, twitter, stb. részéről, és gyakorlatilag kidobott pénz lett az fejlesztésre ráköltött néhány millió dollár.


Na most ehhez képest egy fejlett AI a mai technológiai gátakat és törvényi szabályozásokat megkerülve mekkora verseny-előnyt biztosíthatna a marketing területén?


És igazából EZ a fő problémám.

Sajnos nem hiszek abban, hogy bárki, akár cég, akár magánszemély, akár egy kormány, mérlegelné a hosszú távú következményeket egy kiélezett versenyben.

2021. szept. 4. 18:23
Hasznos számodra ez a válasz?
 28/34 Wadmalac ***** válasza:
64%

"Na most ehhez képest egy fejlett AI a mai technológiai gátakat és törvényi szabályozásokat megkerülve mekkora verseny-előnyt biztosíthatna a marketing területén?"


Hát, bizonyára nagyot, ha nem lenne észrevehető a tevékenysége.

Csakhogy akkor is az, ha a működés módját nem látjuk át.


És jó, hogy felhoztad az egyes államok ilyen-olyan céljait, már csak ezért sem tartom valószínűnek, hogy egy ilyen aI globálisan beavatkozhat, hiszen minden ország védi a saját érdekeit.

Senki nem fog egy globális AI-t nyitott kapukkal fogadni, éppen a saját érdekeinek védelmében.

2021. szept. 6. 08:03
Hasznos számodra ez a válasz?
 29/34 anonim ***** válasza:

Baromira nem értek ehhez a témához, csak a szubjektív véleményemet fogom leírni.


Ahhoz át kell lépni egy fizikai korlátot, hogy az adott gép önálló tudatra ébredjen. Pl. az embernél is úgy működik az öntudat, hogy adott agyterület/agyterületek jelen vannak és működőképesek. Ha nincsenek jelen, akkor értelmetlen öntudatról beszélni. Tehát a vízforralóm sem fog soha önálló életre kelni, mert hiányoznak hozzá a feltételek.


Ezzel most oda akarok kilyukadni, hogy ha egyáltalán el sem AKARUNK jutni odáig, hogy öntudatra ébredő gépet építsünk, akkor soha nem is fog öntudatra ébredni egy gép. Ennyi. Minden más már csak pénz és döntés kérdése (bár szerintem lesz Szkájnet, a csillagközi utazásokat csak azzal lehetne megoldani).

2021. okt. 17. 12:00
Hasznos számodra ez a válasz?
 30/34 anonim ***** válasza:
80%
Tíz agykutatóból kilenc agykutató az viszont egy agykutató, szóval szerintem semmi vész...
2021. okt. 17. 18:02
Hasznos számodra ez a válasz?
1 2 3 4

Kapcsolódó kérdések:





Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu

A weboldalon megjelenő anyagok nem minősülnek szerkesztői tartalomnak, előzetes ellenőrzésen nem esnek át, az üzemeltető véleményét nem tükrözik.
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!