Ekskluzive: Meta fillon testimin e çipit të parë të saj për trajnimin e inteligjencës artificiale

NJU JORK, 11 mars – Kompania Meta (META.O), pronarja e Facebook-ut, ka filluar testimin e çipit të saj të parë të brendshëm për trajnimin e sistemeve të inteligjencës artificiale, një hap kyç ndërsa synon të dizajnojë më shumë çipe të personalizuara dhe të ulë varësinë nga furnizuesit e jashtëm si Nvidia (NVDA.O), thanë dy burime për Reuters.

Kompania më e madhe e rrjeteve sociale në botë ka filluar një përdorim të kufizuar të çipit dhe planifikon të rrisë prodhimin për përdorim në shkallë të gjerë nëse testi rezulton i suksesshëm, thanë burimet.

Përpjekja për të zhvilluar çipe të brendshme është pjesë e një plani afatgjatë të Metës për të ulur kostot e larta të infrastrukturës, ndërsa kompania po investon shuma të mëdha në mjetet e inteligjencës artificiale për të nxitur rritjen.

Meta, e cila zotëron gjithashtu Instagram-in dhe WhatsApp-in, ka parashikuar shpenzime totale për vitin 2025 midis 114 dhe 119 miliardë dollarësh, duke përfshirë deri në 65 miliardë dollarë për investime kapitale, të cilat drejtohen kryesisht nga shpenzimet për infrastrukturën e AI.

Një nga burimet tha se çipi i ri i trajnimit të Metës është një përshpejtues i dedikuar, që do të thotë se është projektuar për të trajtuar vetëm detyra specifike të AI. Kjo mund ta bëjë atë më efikas në konsumimin e energjisë sesa njësitë tradicionale të përpunimit grafik (GPU) që përdoren zakonisht për ngarkesat e punës të AI. Meta po bashkëpunon me prodhuesin tajvanez të çipave TSMC (2330.TW) për të prodhuar çipin, tha ky burim.

Testimi filloi pasi Meta përfundoi fazën e parë të zhvillimit të çipit, e njohur si “tape-out”, një moment i rëndësishëm në dizajnin e silikonit që përfshin dërgimin e një dizajni fillestar në një fabrikë çipash, tha burimi tjetër.

Një “tape-out” tipik kushton dhjetëra milionë dollarë dhe zgjat afërsisht tre deri në gjashtë muaj për t’u përfunduar, pa asnjë garanci për sukses. Një dështim do ta detyronte Metën të identifikonte problemin dhe të përsëriste këtë hap nga fillimi.

Meta dhe TSMC nuk pranuan të komentojnë.

Çipi është pjesë e serisë Meta Training and Inference Accelerator (MTIA). Programi ka pasur vështirësi ndër vite dhe në një moment Meta hoqi dorë nga një çip në një fazë të ngjashme të zhvillimit. Megjithatë, vitin e kaluar, Meta filloi të përdorë një çip MTIA për inferencë – procesi i ekzekutimit të një sistemi AI ndërsa përdoruesit ndërveprojnë me të – për sistemet e rekomandimeve që përcaktojnë se çfarë përmbajtjeje shfaqet në Facebook dhe Instagram.

Drejtuesit e Metës kanë thënë se synojnë të fillojnë të përdorin çipet e tyre për trajnimin e modeleve të AI deri në vitin 2026 – një proces intensiv i përpunimit që përfshin analizimin e sasive të mëdha të të dhënave për të “mësuar” AI-në se si të funksionojë.

Siç ndodhi me çipin për inferencë, objektivi për çipin e trajnimit është të fillojë me sistemet e rekomandimeve dhe më pas të përdoret për produktet e inteligjencës artificiale gjenerative, si chatbot-i Meta AI, kanë thënë drejtuesit e kompanisë.

“Po punojmë për të trajnuar sistemet e rekomandimeve dhe më pas, përfundimisht, për të trajnuar dhe përdorur inferencën për AI gjenerative,” tha Chris Cox, Drejtori Kryesor i Produkteve i Metës, në konferencën e teknologjisë, medias dhe telekomit të Morgan Stanley javën e kaluar.

Cox e përshkroi përpjekjen e Metës për zhvillimin e çipave si një proces që ka kaluar nga “ecja në zvarritje dhe tani në vrapim”, por tha se drejtuesit e kompanisë e konsiderojnë çipin e parë të inferencës si një “sukses të madh”.

Meta më parë hoqi dorë nga një çip i personalizuar për inferencë pasi dështoi në një test të kufizuar, i ngjashëm me atë që po kryen tani për çipin e trajnimit. Pas dështimit, kompania ndryshoi strategji dhe porositi miliarda dollarë GPU nga Nvidia në vitin 2022.

Që atëherë, Meta ka mbetur një nga klientët më të mëdhenj të Nvidias, duke grumbulluar një arsenal të fuqishëm GPU-sh për të trajnuar modelet e saj, përfshirë sistemet e rekomandimeve, reklamat dhe serinë e modeleve themelore Llama. Këto njësi përdoren gjithashtu për inferencën që fuqizon shërbimet për mbi 3 miliardë përdorues të aplikacioneve të saj çdo ditë.

Megjithatë, vlera e këtyre GPU-ve është vënë në pikëpyetje këtë vit, pasi studiuesit e AI po shprehin gjithnjë e më shumë dyshime nëse vazhdimi i zgjerimit të modeleve të mëdha të gjuhës (LLM) – duke shtuar më shumë të dhëna dhe fuqi përpunuese – do të sjellë përmirësime të konsiderueshme.

Këto dyshime u forcuan me lansimin në fund të janarit të modeleve të reja me kosto të ulët nga startup-i kinez DeepSeek, i cili optimizon efikasitetin kompjuterik duke u mbështetur më shumë në inferencë sesa shumica e modeleve ekzistuese.

Pas këtij zhvillimi, aksionet e Nvidia-s pësuan një rënie të madhe, duke humbur deri në një të pestën e vlerës së tyre në një moment, përpara se të rimerrnin shumicën e humbjeve. Investitorët vazhdojnë të vënë bast se çipet e Nvidia-s do të mbeten standardi i industrisë për trajnimin dhe inferencën e AI, megjithëse aksionet kanë pësuar përsëri luhatje për shkak të shqetësimeve më të gjera tregtare.