Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Nagy nyelvmodellek Kínában

MEGOSZTÁS

A Meta LLaMA nagy nyelvmodelljének márciusi debütálása nyílt forrású modellhullámot indított el az Egyesült Államokban. A mandarinon és más kínai nyelveken gyakoroltatott nyíltforrású modellek hasonló hullámot eredményezhetnek az ázsiai országban.

Képek: Wikimedia Commons, Pxfuel

 

Kínában is egyre nagyobb a mesterséges intelligencia, különösen a nagy nyelvmodellek (large language models, LLM) körüli hype, ráadásul a legújabb hullám egyes felhasználók számára nyílt forráskódú megoldásokból áll.

Az irdatlan adatmennyiségen gyakoroltatott ChatGPT és a Bard ugyan sokat tud az angol nyelvű országok történelméről, földrajzáról és társadalmairól, más nyelven beszélő országokról viszont relatíve kevés ismerettel rendelkezik. Ezért van szükség például kínai nyelvű LLM-ekre.

Az Alibaba modellje például kisebb szervezet számára open source, míg a Baichuan Intelligent Technology korábban bemutatott MI-je szintén az, és a Pekingi Mesterséges Intelligencia Akadémia Wu Dao 3.0-ja is az lesz.

Ezek az előre gyakoroltatott modellek, például a hetvenmilliárd paraméteres Meta LLaMa 2-vel összehasonlítva kicsik, növekvő számuk viszont fontos Kínának, miközben az Egyesült Államok exportkorlátozásai, szankciói miatt az országban nehéz a mesterségesintelligencia-feldolgozáshoz szükséges, különösen Nvidia-chipek beszerzése.

 

A modellek

Az Alibaba Qwen-7B és Qwen-7B-Chat modelljei kisebb vállalatok számára ingyenes, havi százmillióval több aktív felhasználóval rendelkező cégeknek viszont licencdíjat kell fizetniük.

A ma már a Tencent által birtokolt, a Sogou keresőmotort fejlesztő startupot alapító Wang Xiaochuan vállalata, a Baichuan Intelligent Technology Baichuan-13B és Baichuan-13B-Chat modelljei akadémiai célokra ingyenesek, a kereskedelmi felhasználásért viszont fizetni kell.

 

 

A Pekingi Mesterséges Intelligencia Akadémia Wu Dao 3.0 modellcsaládja a beszélgetésre finomhangolt AquilaChat-7B és AquilaChat-33B, a természetes nyelven megadott promptokból történő kódgenerálásra tökéletesített AquilaCode és a gépilátás-feladatokat végző Wu Dao Vision mind nyílt forráskódú, és a közvetlen előd Wu Dao 2.0 feljavított változatai.

 

Akadályok

A nyílt forráskód ellenére, a kínai nyelvmodell-fejlesztők között óriási a versenyfutás az egyre nagyobb bevételekért. Verseny közben azonban olyan komoly akadályokba ütköznek, mint az Egyesült Államok Kereskedelmi Minisztériuma Nvidia A100 és H100 grafikus feldolgozóegységeire (GPU) vonatkozó tiltása.

Kínai cégek a kiskapukat ugyan kihasználják, közvetítők halásznak a zavarosban, de a lehetőségek egyrészt korlátozottak, másrészt szinte exponenciálisan nőnek az igények.

A nyelvmodellek és outputjaik törtvény általi korlátozása szintén komoly akadály. Az egyik alapján generatív MI-termékek csak a kormányzati jóváhagyás után dobhatók piacra. A fejlesztők korlátozzák is újabb chatbotjaikat, hogy mindenben megfeleljenek az internetes tartalmak használatát szigorúan szabályozó törvénynek.

PODCAST

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek