Yes, ChatGPT got lazier. But OpenAI finally has a fix.

Igen, a ChatGPT lustább lett, de az OpenAI végre megoldást talált.

Az OpenAI frissítést adott ki a ChatGPT „lustaságának” kijavítására az elmúlt hónapok során.

Csütörtökön az OpenAI bejelentette a GPT-4 Turbo frissítését, ami a legfejlettebb LLM-jük (nyelvi modeljük). A GPT-4 Turbo még csak korlátozott előnézetben érhető el az API-n keresztül, ami azt jelenti, hogy nem ez hajtja meg a ChatGPT-t. Mindazonáltal reménykednek abban, hogy ez a javítás végül a ChatGPT-hez is kiadásra kerül.

Az OpenAI foglalkozik az LLM levertségével

Decemberben az OpenAI elismerte, hogy a ChatGPT kevésbé alapos és hasznos válaszokat adott, olykor még mielőtt befejezte volna a feladatot, abbamaradt. Az ügyet azzal magyarázták, hogy a modell idővel fokozatosan romló válaszokat adhat, ami megmagyarázhatja, hogy a felhasználók már hat hónappal ezelőtt is észlelték a problémát.

A felhasználók azt is felvetették, hogy a ChatGPT lassabb és kevésbé hasznos lehetett, mert korlátozott sávszélesség volt, hogy megfeleljenek a megnövekedett forgalom igényeinek. A tegnapi bejelentésben az OpenAI nem említ konkrét frissítéseket a GPT-4-hez, ami jelenleg a ChatGPT-et működteti. De a GPT-4 Turbo frissítésére és az azonos probléma elismerésére vonatkozó hivatkozás jó jel.

A GPT-4 Turbo frissítéseinek magyarázataként az OpenAI blogbejegyzése ezt mondta: „Ez a modell alaposabban végzi el a feladatokat, mint az előző előnézeti modell, és azt a célt szolgálja, hogy csökkentse a ‘lustaság’ eseteket, amikor a modell nem fejez be egy feladatot.”

A GPT-4 Turbo modelt a novemberi OpenAI fejlesztői konferencián jelentették be (amit gyorsan beárnyékolt Sam Altman elmozdításának sikertelen kísérlete). A GPT-4 Turbo modell naprakészabb információkkal rendelkezik és nagyobb kontextus ablakkal bír, ami azt jelenti, hogy egyszerű parancsra sokkal több adatot képes feldolgozni.

Mára már az újított GPT-4 Turbo előzetes modellje elérhetővé vált.