Kezdőoldal » Számítástechnika » Egyéb kérdések » A nagy nyelvi modellek első...

A nagy nyelvi modellek első lépésként egy embedding-et (szóbeágyazást alkalmaznak), tipikusan monsjuk egy 300 dimenziós vektortérbe. Mi alapján optimalizálják ezt a dimenziószámot adott korpusz esetében?

Figyelt kérdés
Azt tudom, hogy a beágyazást hogyan tanulja meg egy neuronháló, de hogyan döntik el, hogy a 300 dimenzió a legalkalmasabb és mondjuk jobb, mint a 310 dimenzió. Milyen szempontok játszanak itt szerepet?

dec. 12. 21:56
 1/2 anonim ***** válasza:
Alapvetően az ár, és a megvalósíthatóság. A dimenzió szám növelése jelentősen növeli a szükséges hardver árát. És kell húzni egy határt ahol már az eredmény várhatóan megfelelő, és nem lesz nagyon drága (vagy nagyon lassú).
dec. 13. 08:11
Hasznos számodra ez a válasz?
 2/2 A kérdező kommentje:
Biztos nem ez a válasz.
dec. 14. 10:07

Kapcsolódó kérdések:





Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu

A weboldalon megjelenő anyagok nem minősülnek szerkesztői tartalomnak, előzetes ellenőrzésen nem esnek át, az üzemeltető véleményét nem tükrözik.
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!