BMS-i, bussi-, tööstus- ja instrumenteerimiskaabli jaoks.

Kevadfestivali lõppedes püsib DeepSeeki ümber valitsev elevus endiselt tugev. Hiljutine püha tõi esile märkimisväärse konkurentsi tehnoloogiatööstuses, kusjuures paljud arutasid ja analüüsisid seda „säga“. Silicon Valley kogeb enneolematut kriisi: avatud lähtekoodiga tarkvara pooldajad avaldavad taas oma arvamust ja isegi OpenAI hindab ümber, kas nende suletud lähtekoodiga strateegia oli parim valik. Uus madalamate arvutuskulude paradigma on käivitanud kiibihiiglaste, näiteks Nvidia, seas ahelreaktsiooni, mis on viinud USA aktsiaturu ajaloo rekordiliste ühepäevaste turuväärtuse langusteni, samal ajal kui valitsusasutused uurivad DeepSeeki poolt kasutatavate kiipide vastavust nõuetele. Vaatamata DeepSeeki vastuolulistele arvustustele välismaal, kogeb see kodumaal erakordset kasvu. Pärast R1 mudeli turuletoomist on seotud rakenduse liiklus hüppeliselt kasvanud, mis näitab, et rakendussektorite kasv viib kogu tehisintellekti ökosüsteemi edasi. Positiivne on see, et DeepSeek laiendab rakendusvõimalusi, mis viitab sellele, et ChatGPT-le lootmine ei ole tulevikus nii kulukas. See nihe on kajastunud OpenAI hiljutistes tegevustes, sealhulgas DeepSeek R1-le vastuseks tasuta kasutajatele arutlusmudeli o3-mini pakkumises, samuti hilisemates uuendustes, mis tegid o3-mini mõtteahela avalikuks. Paljud välismaised kasutajad avaldasid DeepSeekile nende arengute eest tänu, kuigi see mõtteahel on mõeldud kokkuvõtteks.
Optimistlikult on ilmne, et DeepSeek ühendab kodumaiseid tegijaid. Keskendudes koolituskulude vähendamisele, liituvad ökosüsteemiga aktiivselt mitmesugused kiibitootjad, vahepealsed pilveteenuse pakkujad ja arvukad idufirmad, suurendades DeepSeeki mudeli kasutamise kulutõhusust. DeepSeeki dokumentide kohaselt nõuab V3 mudeli täielik koolitamine vaid 2,788 miljonit H800 GPU tundi ja koolitusprotsess on väga stabiilne. MoE (Mixture of Experts) arhitektuur on ülioluline eelkoolituse kulude vähendamiseks kümme korda võrreldes Llama 3-ga, millel on 405 miljardit parameetrit. Praegu on V3 esimene avalikult tunnustatud mudel, mis demonstreerib MoE-s nii suurt hõredust. Lisaks töötab MLA (Multi Layer Attention) sünergiliselt, eriti arutlusaspektides. „Mida hõredam on MoE, seda suurem on partii suurus, mida on vaja arutluskäigu ajal arvutusvõimsuse täielikuks ärakasutamiseks, kusjuures KVCache suurus on peamine piirav tegur; MLA vähendab oluliselt KVCache suurust,“ märkis Chuanjing Technology teadlane AI Technology Review'i analüüsis. Üldiselt peitub DeepSeeki edu mitte ainult ühe, vaid erinevate tehnoloogiate kombinatsioonis. Valdkonna siseringi eksperdid kiidavad DeepSeeki meeskonna insenerivõimekust, märkides nende tipptaset paralleelsel koolitamisel ja operaatorite optimeerimisel, saavutades murrangulisi tulemusi iga detaili täiustamisega. DeepSeeki avatud lähtekoodiga lähenemisviis soodustab veelgi suurte mudelite üldist arengut ning eeldatakse, et kui sarnased mudelid laienevad piltide, videote ja muu hulka, stimuleerib see märkimisväärselt nõudlust kogu tööstuses.
Kolmandate osapoolte arutlusteenuste võimalused
Andmed näitavad, et alates DeepSeeki ilmumisest on sellel kõigest 21 päevaga kogunenud 22,15 miljonit igapäevast aktiivset kasutajat (DAU), mis moodustab 41,6% ChatGPT kasutajaskonnast ja ületab Doubao 16,95 miljonit igapäevast aktiivset kasutajat, saades seega maailma kiiremini kasvavaks rakenduseks, edestades Apple App Store'i 157 riigis/regioonis. Kuigi kasutajaid on massiliselt kogunenud, on küberhäkkerid DeepSeeki rakendust halastamatult rünnanud, põhjustades selle serveritele märkimisväärset koormust. Valdkonna analüütikud usuvad, et see on osaliselt tingitud sellest, et DeepSeek kasutab treenimiseks kaarte, kuid tal puudub piisav arvutusvõimsus arutluskäiguks. Valdkonna siseringi esindaja teatas AI Technology Review'le: "Sageli esinevaid serveriprobleeme saab hõlpsalt lahendada tasusid nõudes või finantseerides rohkemate masinate ostmiseks; lõppkokkuvõttes sõltub see DeepSeeki otsustest." See kujutab endast kompromissi tehnoloogiale ja tootestamisele keskendumise vahel. DeepSeek on suuresti toetunud kvantkvantiseerimisele omase toimetuleku tagamiseks, olles saanud vähe välist rahastamist, mille tulemuseks on suhteliselt madal rahavoogude surve ja puhtam tehnoloogiline keskkond. Praegu, eelpoolmainitud probleemide valguses, kutsuvad mõned kasutajad DeepSeeki sotsiaalmeedias üles tõstma kasutuslävesid või lisama tasulisi funktsioone, et parandada kasutajamugavust. Lisaks on arendajad hakanud optimeerimiseks kasutama ametlikku API-t või kolmandate osapoolte API-sid. DeepSeeki avatud platvorm teatas aga hiljuti: "Praegused serveriressursid on napid ja API-teenuse laadimised on peatatud."
See avab kahtlemata tehisintellekti taristu sektoris kolmandate osapoolte müüjatele rohkem võimalusi. Hiljuti on arvukad kodumaised ja rahvusvahelised pilvegigandid turule toonud DeepSeeki mudel-API-d – välismaised hiiglased Microsoft ja Amazon olid esimeste seas, kes jaanuari lõpus liitusid. Kodumaine liider Huawei Cloud tegi esimese sammu, avaldades 1. veebruaril koostöös Silicon-põhise Flow'ga DeepSeek R1 ja V3 arutlusteenused. AI Technology Review'i aruanded näitavad, et Silicon-põhise Flow teenused on näinud kasutajate sissevoolu, mis on platvormi sisuliselt "krahhi" viinud. Kolm suurt tehnoloogiaettevõtet – BAT (Baidu, Alibaba, Tencent) ja ByteDance – andsid alates 3. veebruarist välja ka odavaid ja piiratud aja pakkumisi, mis meenutavad eelmise aasta pilvemüüjate hinnasõda, mille sütitas DeepSeeki V2 mudeli turuletoomine, kus DeepSeeki hakati nimetama "hinnakütiks". Pilveteenuse pakkujate meeletu tegutsemine peegeldab varasemaid tugevaid sidemeid Microsoft Azure'i ja OpenAI vahel, kus Microsoft investeeris 2019. aastal OpenAI-sse märkimisväärse miljardi dollari suuruse investeeringu ja lõi kasu pärast ChatGPT käivitamist 2023. aastal. See lähedane suhe hakkas aga hääbuma pärast seda, kui Meta avas Llama lähtekoodiga tarkvara, võimaldades teistel Microsoft Azure'i ökosüsteemist väljaspool asuvatel pakkujatel oma suurte mudelitega konkureerida. Antud juhul on DeepSeek mitte ainult ületanud ChatGPT-d toote kuumuse poolest, vaid on pärast o1 väljalaset tutvustanud ka avatud lähtekoodiga mudeleid, sarnaselt elevusele, mis ümbritses Llama GPT-3 taaselustamist.
Tegelikkuses positsioneerivad pilveteenuse pakkujad end ka tehisintellekti rakenduste liiklusväravateks, mis tähendab, et arendajatega sidemete süvendamine annab ennetavaid eeliseid. Aruanded näitavad, et Baidu Smart Cloudil oli mudeli turuletoomise päeval üle 15 000 kliendi, kes kasutasid DeepSeeki mudelit Qianfani platvormi kaudu. Lisaks pakuvad lahendusi mitu väiksemat ettevõtet, sealhulgas Silicon-based Flow, Luchen Technology, Chuanjing Technology ja mitmed tehisintellekti infrastruktuuri pakkujad, kes on käivitanud DeepSeeki mudelite toe. AI Technology Review on teada saanud, et DeepSeeki lokaliseeritud juurutamise praegused optimeerimisvõimalused eksisteerivad peamiselt kahes valdkonnas: üks on MoE-mudeli hõredate omaduste optimeerimine, kasutades segapõhjuse lähenemisviisi, et juurutada 671 miljardi parameetriga MoE-mudel lokaalselt, kasutades samal ajal hübriidset GPU/CPU järeldust. Lisaks on MLA optimeerimine ülioluline. DeepSeeki kahel mudelil on juurutamise optimeerimisel siiski mõningaid väljakutseid. „Mudeli suuruse ja arvukate parameetrite tõttu on optimeerimine tõepoolest keeruline, eriti kohalike juurutuste puhul, kus optimaalse tasakaalu saavutamine jõudluse ja kulude vahel on keeruline,“ ütles Chuanjing Technology teadlane. Kõige olulisem takistus seisneb mälumahu piirangute ületamises. „Me kasutame heterogeenset koostöömeetodit, et täielikult ära kasutada protsessoreid ja muid arvutusressursse, paigutades protsessorile/DRAM-ile ainult hõreda MoE-maatriksi jagamata osad töötlemiseks suure jõudlusega protsessorioperaatorite abil, samas kui tihedad osad jäävad graafikaprotsessorile,“ selgitas ta lähemalt. Aruanded näitavad, et Chuanjingi avatud lähtekoodiga raamistik KTransformers süstib Transformersi algsesse rakendusse peamiselt erinevaid strateegiaid ja operaatoreid malli kaudu, suurendades oluliselt järelduste kiirust selliste meetodite abil nagu CUDAGraph. DeepSeek on loonud neile idufirmadele võimalusi, kuna kasvueelised on ilmnenud; paljud ettevõtted on teatanud märgatavast klientide arvu kasvust pärast DeepSeek API käivitamist, saades varasematelt klientidelt päringuid optimeerimise kohta. Valdkonna siseringi eksperdid on märkinud: „Varem olid mõnevõrra väljakujunenud kliendigrupid sageli seotud suuremate ettevõtete standardiseeritud teenustega, olles tihedalt seotud oma mastaabist tulenevate kulueeliste tõttu. Pärast DeepSeek-R1/V3 juurutamise lõpetamist enne kevadfestivali saime aga ootamatult koostöötaotlusi mitmelt tuntud kliendilt ja isegi varem passiivsed kliendid algatasid meiega ühenduse võtmise, et tutvustada meie DeepSeek teenuseid.“ Praegu näib, et DeepSeek muudab mudeli järelduse jõudluse üha olulisemaks ning suurte mudelite laiema kasutuselevõtuga mõjutab see oluliselt tehisintellekti infrastruktuuri tööstuse arengut. Kui DeepSeeki tasemel mudelit saaks kohapeal madala hinnaga juurutada, aitaks see oluliselt kaasa valitsuse ja ettevõtete digitaalse transformatsiooni püüdlustele. Probleemid on aga endiselt olemas, kuna mõnel kliendil võivad olla suurte mudelite võimekuse suhtes kõrged ootused, mistõttu on selgem, et jõudluse ja kulude tasakaalustamine muutub praktilise juurutamise puhul ülioluliseks.
Selleks, et hinnata, kas DeepSeek on parem kui ChatGPT, on oluline mõista nende peamisi erinevusi, tugevusi ja kasutusjuhtumeid. Siin on põhjalik võrdlus:
Funktsioon/aspekt | DeepSeek | VestlusGPT |
---|---|---|
Omandiõigus | Hiina ettevõtte poolt välja töötatud | OpenAI arendatud |
Allika mudel | Avatud lähtekoodiga | Patenteeritud |
Maksumus | Tasuta kasutamine; odavamad API-juurdepääsu valikud | Tellimus- või kasutuspõhine hinnakujundus |
Kohandamine | Väga kohandatav, võimaldades kasutajatel seda kohandada ja sellele edasi ehitada | Piiratud kohandamisvõimalused |
Toimivus konkreetsetes ülesannetes | Paistab silma teatud valdkondades, näiteks andmeanalüüsis ja teabeotsingus | Mitmekülgne ja annab suurepäraseid tulemusi nii loomingulises kirjutamises kui ka vestlusülesannetes |
Keeletugi | Tugev rõhk hiina keelel ja kultuuril | Lai keeletugi, kuid USA-keskne |
Koolituskulud | Madalamad koolituskulud, optimeeritud efektiivsuse saavutamiseks | Kõrgemad koolituskulud, mis nõuavad märkimisväärseid arvutusressursse |
Vastuse variatsioon | Võib pakkuda erinevaid vastuseid, mida võib mõjutada geopoliitiline kontekst | Järjepidevad vastused põhinevad treeningandmetel |
Sihtrühm | Mõeldud arendajatele ja teadlastele, kes soovivad paindlikkust | Mõeldud tavakasutajatele, kes otsivad vestlusoskusi |
Kasutusjuhud | Tõhusam koodi genereerimiseks ja kiirete ülesannete jaoks | Ideaalne teksti genereerimiseks, päringutele vastamiseks ja dialoogi pidamiseks |
Kriitiline vaatenurk teemale "Nvidia häirimine"
Praegu lisaks Huaweile kohanduvad DeepSeeki kahe mudeliga ka mitmed kodumaised kiibitootjad, näiteks Moore Threads, Muxi, Biran Technology ja Tianxu Zhixin. Üks kiibitootja ütles AI Technology Review'le: „DeepSeeki struktuur näitab innovatsiooni, kuid jääb siiski õigusteaduse valdkonna erialaks. Meie kohandus DeepSeekiga keskendub peamiselt rakenduste arutluskäigule, muutes tehnilise rakendamise üsna lihtsaks ja kiireks.“ MoE lähenemisviis nõuab aga suuremaid nõudmisi salvestuse ja levitamise osas ning ühilduvuse tagamist kodumaiste kiipidega juurutamisel, mis tekitab arvukalt tehnilisi väljakutseid, mis vajavad kohandamise käigus lahendamist. „Praegu ei vasta kodumaine arvutusvõimsus Nvidiale kasutatavuse ja stabiilsuse osas, mis nõuab tarkvarakeskkonna seadistamiseks, tõrkeotsinguks ja põhilise jõudluse optimeerimiseks tehase algset osalemist,“ ütles valdkonna praktik praktilise kogemuse põhjal. Samal ajal: „DeepSeek R1 suure parameetrite skaala tõttu nõuab kodumaine arvutusvõimsus paralleelsuse jaoks rohkem sõlmi. Lisaks on kodumaised riistvaraspetsifikatsioonid endiselt mõnevõrra maha jäänud; näiteks Huawei 910B ei toeta praegu DeepSeeki poolt kasutusele võetud FP8 järeldust.“ Üks DeepSeek V3 mudeli esiletõstmisi on FP8 segatäpsusega treeningraamistiku kasutuselevõtt, mida on äärmiselt suurel mudelil tõhusalt valideeritud, mis on märkimisväärne saavutus. Varem on suured tegijad nagu Microsoft ja Nvidia pakkunud välja sarnast tööd, kuid tööstuses püsivad kahtlused selle teostatavuse osas. On arusaadav, et võrreldes INT8-ga on FP8 peamine eelis see, et treeningjärgne kvantiseerimine võimaldab saavutada peaaegu kadudeta täpsuse, suurendades samal ajal oluliselt järelduskiirust. Võrreldes FP16-ga suudab FP8 saavutada Nvidia H20-l kuni kahekordse kiirenduse ja H100-l üle 1,5-kordse kiirenduse. Märkimisväärselt on kodumaise arvutusvõimsuse ja kodumaiste mudelite trendi puudutavate arutelude hoogustumisel üha enam levinud spekulatsioonid selle üle, kas Nvidia võiks häiritud olla ja kas CUDA vallikraavi saaks mööda hiilida. Üks vaieldamatu fakt on see, et DeepSeek on tõepoolest põhjustanud Nvidia turuväärtuse olulise languse, kuid see nihe tekitab küsimusi Nvidia tipptasemel arvutusvõimsuse terviklikkuse kohta. Kapitalipõhise arvutusliku akumuleerimise varasemaid aktsepteeritud narratiive vaidlustatakse, kuid Nvidia jaoks on endiselt keeruline end treeningstsenaariumides täielikult asendada. DeepSeeki CUDA sügava kasutamise analüüs näitab, et paindlikkus – näiteks SM-i kasutamine suhtluseks või võrgukaartide otsene manipuleerimine – ei ole tavaliste GPU-de jaoks teostatav. Tööstusharu seisukohad rõhutavad, et Nvidia vallikraav hõlmab kogu CUDA ökosüsteemi, mitte ainult CUDA-d ennast, ja DeepSeeki kasutatavad PTX (Parallel Thread Execution) juhised on endiselt osa CUDA ökosüsteemist. „Lühiajaliselt ei saa Nvidia arvutusvõimsusest mööda hiilida – see on eriti selge treeningus; kodumaiste kaartide kasutuselevõtt arutluskäikudeks on aga suhteliselt lihtsam, seega on edasiminek tõenäoliselt kiirem. Kodumaiste kaartide kohandamine keskendub peamiselt järeldusele; keegi pole veel suutnud DeepSeeki jõudluse mudelit kodumaistel kaartidel suures mahus treenida,“ märkis tööstuse analüütik AI Technology Review'le. Üldiselt on järelduse seisukohast olukord kodumaiste suurte mudelikiipide jaoks julgustav. Kodumaiste kiibitootjate võimalused järelduste valdkonnas on ilmsemad tänu treeningu ülemäära kõrgetele nõuetele, mis takistavad sisenemist. Analüütikud väidavad, et piisab lihtsalt kodumaiste järelduskaartide rakendamisest; vajadusel on teostatav täiendava masina hankimine, samas kui treeningmudelid tekitavad ainulaadseid väljakutseid – suurenenud arvu masinate haldamine võib muutuda koormavaks ja kõrgemad veamäärad võivad treeningu tulemusi negatiivselt mõjutada. Treeningul on ka spetsiifilised klastrite skaala nõuded, samas kui klastritele esitatavad nõuded järelduste tegemiseks ei ole nii ranged, mis leevendab GPU nõudeid. Praegu ei ületa Nvidia ühe H20 kaardi jõudlus Huawei ega Cambriani oma; selle tugevus seisneb klastrite moodustamises. Arvestades arvutusvõimsuse turule avalduvat üldist mõju, märkis Luchen Technology asutaja You Yang intervjuus AI Technology Review'le: "DeepSeek võib ajutiselt õõnestada ülisuurte treeningarvutusklastrite loomist ja rentimist. Pikas perspektiivis, vähendades oluliselt suurte mudelite treeningu, arutluskäigu ja rakendustega seotud kulusid, on turunõudlus tõenäoliselt hüppeliselt tõusnud. Seetõttu soodustavad sellel põhinevad tehisintellekti hilisemad iteratsioonid pidevalt püsivat nõudlust arvutusvõimsuse turul." Lisaks on „DeepSeeki suurenenud nõudlus arutlus- ja peenhäälestusteenuste järele paremini kooskõlas kodumaise arvutusmaastikuga, kus kohalikud võimalused on suhteliselt nõrgad, aidates leevendada jõudeolevate ressursside raiskamist pärast klastrite loomist; see loob elujõulisi võimalusi tootjatele kodumaise arvutusökosüsteemi eri tasanditel.“ Luchen Technology on teinud koostööd Huawei Cloudiga, et käivitada DeepSeek R1 seeria arutlus-API-d ja pilvepilditeenused, mis põhinevad kodumaisel arvutusvõimsusel. You Yang väljendas tuleviku suhtes optimismi: „DeepSeek sisendab usaldust kodumaiste lahenduste vastu, julgustades suuremat entusiasmi ja investeeringuid kodumaistesse arvutusvõimetesse edaspidi.“

Kokkuvõte
See, kas DeepSeek on ChatGPT-st "parem", sõltub kasutaja konkreetsetest vajadustest ja eesmärkidest. Paindlikkust, madalat hinda ja kohandamist vajavate ülesannete puhul võib DeepSeek olla parem. Loomingulise kirjutamise, üldise päringu ja kasutajasõbralike vestlusliideste puhul võib ChatGPT olla eeskujuks. Igal tööriistal on erinev eesmärk, seega sõltub valik suuresti kontekstist, milles neid kasutatakse.
Juhtkaablid
Struktureeritud kaabeldussüsteem
Võrk ja andmeside, kiudoptiline kaabel, ühenduskaabel, moodulid, esiplaat
16.–18. aprill 2024 Lähis-Ida energiamess Dubais
16.-18. aprill 2024 Securika Moskvas
9. mail 2024 toimus Shanghais uute toodete ja tehnoloogiate esitlusüritus
22.–25. oktoober 2024 SECURITY CHINA Pekingis
19.–20. november 2024 CONNECTED WORLD KSA
Postituse aeg: 10. veebruar 2025