Kezdőoldal » Tudományok » Egyéb kérdések » Hogy lehet hogy a CHATGPT egy...

Hogy lehet hogy a CHATGPT egy kérdésre két különböző választ ad?

Figyelt kérdés
Egyik válaszában képes volt olyan butaságot állítani, hogy a telített sós víz nem vezeti az elektromos áramot de amint kérdőre vontam kijavította magát. Ezek szerint nem is tud gondolkodni, mi alapján írja válaszait akkor?

2023. okt. 8. 22:00
 1/10 Zcom09 ***** válasza:
73%

Mert ChatGPT nem tud semmit, nem arra tervezték hogy tudjon dolgokat. Hanem hogy helyesen jósolja meg hogy milyen szavak következnek egymás után egy szövegben.

Nem ért semmit csak képes úgy szavakat pakolni egymás után hogy az értelmes legyen.

2023. okt. 8. 22:03
Hasznos számodra ez a válasz?
 2/10 anonim ***** válasza:
52%
Nem az igazat mondja, hanem amit az interneten talál.
2023. okt. 8. 22:10
Hasznos számodra ez a válasz?
 3/10 anonim ***** válasza:
70%
Eddig sem tudott gondolkodni.
2023. okt. 8. 22:14
Hasznos számodra ez a válasz?
 4/10 anonim ***** válasza:
61%
Klasszikus értelemben nincs gondolata, véleménye. Egy programkód. Információk halmaza, tanul, fejlődik. De nem gondolkodik, nincs vélemény vagy bármi egyéb, csak azt írja amit "tud" és csak azt tudja ami a programjába szerepel és még 2021 előtti információk jelentős részét.
2023. okt. 8. 22:17
Hasznos számodra ez a válasz?
 5/10 anonim ***** válasza:
100%

Mondok jobbat; ezt a kérdést miért nem a ChatGPT-nek tetted fel?


Egyfelől ez olyan, mint amikor a Google keresőbe beírsz egy szókapcsolatot, és valami teljesen másik találatot is kidob, aminek semmi köze az eredeti kifejezéshez.


Másfelől olyan, mint az emberi agy; a már meglévő információk alapján próbál egy kérdésre válaszolni. Ahogy az ember is képes a releváns információk birtokában helytelen következtetést levonni, úgy a program is, ezért nem szabad vakon hinni a válaszában, mondván mindent tud, így nem adhat rossz választ.


Nem mellesleg ez a projekt még nagyon új, mondhatni tesztidőszakban van még. Úgy tud fejlődni, hogy az emberek minél többet használják. De ezzel már más esetben is találkozhattál; sok esetben egy számítógépes játékot teszt jelleggel széles körben kiadnak, hogy minél hamarabb kiszűrhetővé váljanak a nagyobb hibák. Ennek nyilván az az ára, hogy egy hibáktól hemzsegő játékkal játszhatsz, mégsem kezded el szidni a játékot, hogy milyen szar, hanem tudod, hogy pont azért hagynak vele játszani ingyen, hogy a fejlesztők tudják tökéletesíteni.

2023. okt. 9. 03:44
Hasznos számodra ez a válasz?
 6/10 anonim ***** válasza:
72%
A nyelvi modell fogalma a válasz.
2023. okt. 9. 06:45
Hasznos számodra ez a válasz?
 7/10 anonim ***** válasza:
100%

Itt is a chatGTP válasza a kérdésedre (megjegyzésedre) is:


A CHATGPT egy gépi tanulás alapú modell, ami adatok alapján tanult meg válaszokat generálni. Az, hogy egy kérdésre két különböző választ adhat, több tényezőtől függhet:


Tanítóadatok változatossága: A CHATGPT-t olyan adatokkal tanítják meg, amelyeket a világhálóról és más forrásokból gyűjtenek össze. Ezek az adatok lehetnek ellentmondásosak vagy változatosak, ami azt eredményezheti, hogy a modell különböző forrásokból származó információkat ismer fel, és ezek alapján generál válaszokat.


Tanulás folyamata: A gépi tanulás során a modell több iterációban tanul, és a tanítás során a modell súlyozza az adatokat, próbálja megtanulni azokat, majd tesztelik az eredményeket. Az eltérő válaszok lehetnek a tanulás különböző szakaszaiban vagy a tanítóadatok változatosságának következményei.


Ellenőrzés és finomhangolás: Az ilyen modelleket a tanulás után is finomhangolják és ellenőrzik a válaszaik pontosságát. Azok a változatok, amelyek jobban teljesítenek az ellenőrzési folyamat során, kerülnek ki a nyilvánosság elé.


A modell nem rendelkezik saját gondolkodással vagy tudattal, és válaszai teljes mértékben azokon az adatokon alapulnak, amelyeket a tanítás során felhasználtak. Az, hogy javítja magát, amikor hibás választ ad, az egyik módja annak, hogy a tanítóadatokból tanul és igyekszik a helyes válaszokat előállítani. Azonban a gépi tanulásnak és a természetes nyelvfeldolgozásnak vannak korlátai, és nem mindig garantálja, hogy minden kérdésre vagy állításra tökéletes választ fog adni. Az emberi ellenőrzés és a finomhangolás fontos szerepet játszik a modell teljesítményének javításában és a hibák korrigálásában.

2023. okt. 9. 09:12
Hasznos számodra ez a válasz?
 8/10 anonim ***** válasza:
100%

Hogy lehet, hogy ezt a kérdést (ami a címben van) felteszi valaki? Úgy, hogy egyes csoportok ezt a szoftvert mesterséges intelligenciának nevezik, maga a mesterséges intelligencia erősen szubjektív fogalom és főleg nem egységes, nem konszenzuson alapuló, ezért sokan olyan képességeket tulajdonítanak neki, amivel nem rendelkezik. Ezért nem, mert egyelőre az ember se azzal, hogy mesterséges intelligenciát alkosson. Ez a mai helyzet. Hogy ebben mennyi idő múlva lesz minőségi ugrás, nem tudni.


Mindenesetre az emberi gondolkodás annyira bonyolult, hogy egyelőre a megértés se mindig sikerül, hát még a szimulációja. De jó úton haladunk, csak nem szabad túlzott elvárásokat táplálni, próbáljuk meg a valóságnak megfelelőan kezelni (lásd fentebb játékprogramok).

2023. okt. 9. 17:44
Hasznos számodra ez a válasz?
 9/10 anonim ***** válasza:
100%

"Klasszikus értelemben nincs gondolata, véleménye."


Mit jelent a klasszikus értelemben az, hogy "gondolat", meg "vélemény"?


Miért képzeljük azt, hogy az emberi elmében van bármi különleges?

Hogy az emberi agy egyébként nem pont ugyanazt csinálja, mint a ChatGPT, tehát az inputokra, beérkező ingerekre valószínűségi alapon reagál a korábban tanultak alapján?


Mert egyébként azt tudjuk, hogy az emberi agy is neuronokból és szinapszisokból áll, ugyanezt modellezi a ChatGPT is, ebből következően nagyon valószínű, hogy az emberi agy sem csinál mást.


Innentől kezdve az egyetlen különbség egy AI és egy ember neurális hálója között a neuronok és szinapszisok száma.


Az emberi agy neurális hálója nagyságrendileg 100 milliárd neuronból és 100 billió szinapszisból áll, a ChatGPT jelenleg ettől több nagyságrenddel elmarad.


Ehhez mérten tűnik "intelligensnek", "értelmesnek".


Viszont, a neurális háló nagyságrendjét növelni a legkönnyebb, ehhez csak tárkapacitás és számítási teljesítmény kell, semmi más.


5-10, de legfeljebb 15 év kell ahhoz, hogy elérje egy AI az emberi agy nagyságrendjét, onnantól kezdve már kapacitásban ugyanott van, ahol mi, ugyanúgy bármire meg lehet majd tanítani, mint egy embert.



Egyébként sokan hajlamosak figyelmen kívül hagyni, hogy az emberek is rendszeresen tévednek, rendszeresen mondanak hülyeségeket, rendszeresen ki kell javítani őket, sőt, rendszeresen elfelejtik, hogy egyszer már ki lettek javítva, ezért megint ki kell javítani őket, stb.

Még ebben sem különbözünk egy ChatGPT-től.

2023. okt. 10. 09:00
Hasznos számodra ez a válasz?
 10/10 anonim ***** válasza:
100%

Már a ma elérhető ChatGPT is sokkal okosabb, mint amilyennek az átlagfelhasználó számára tűnik, ugyanis azt, hogy kérdőre vonod a ChatGPT-t, hogy nem mondott-e baromságot, automatizálni lehet. Vannak olyan projektek (AutoGPT, BabyAGI és még sok másik), amelyek a ChatGPT-t reflektálásra kényszerítik: a kérdés átfogalmazására, a válaszhoz vezető út lépésekre bontására, a lépések egyenkénti megválaszolására, ellentmondások feloldására, stb. A felhasználó számára pedig ennek a több körben átrágott, szintetizált eredményét prezentálják, nem csak az első böffenetet.


Ehhez még csak növelni se kell a neuronok és kapcsolatok számán, csupán beépített visszacsatolást adni a rendszerre, és a köztes kósza "gondolatokat" elrejteni a felhasználó elől. A natúr ChatGPT-nek gyorsabban jár a nyelve, mint az esze, és csak azon tud elgondolkozni, amit már kimondott, de ez a fent említett, ChatGPT-re épülő független fejlesztésű projektek sikerét látva az újabb verziókban már tuti nem így lesz.

2023. okt. 10. 12:43
Hasznos számodra ez a válasz?

További kérdések:





Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu

A weboldalon megjelenő anyagok nem minősülnek szerkesztői tartalomnak, előzetes ellenőrzésen nem esnek át, az üzemeltető véleményét nem tükrözik.
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!