Spis treści:
- Instinct MI325X kontra Nvidia Blackwell
- AMD celuje w rynek wart pół biliona dolarów
- Nowe procesory EPYC 5. generacji
- AMD umacnia swoją pozycję w AI
Instinct MI325X kontra Nvidia Blackwell
Chip Instinct MI325X został zaprojektowany jako konkurent dla nadchodzących układów Nvidii o nazwie Blackwell, które trafią na rynek w dużych ilościach na początku 2025 roku. AMD liczy, że jego chipy AI zyskają popularność wśród deweloperów oraz gigantów chmurowych, takich jak Meta i Microsoft, którzy już wcześniej zakupili produkty firmy. Chociaż AMD nie podało ceny swojego nowego produktu, CEO dr. Lisa Su zaznaczyła, że nowa technologia może wywierać presję cenową na Nvidię.
the rate of investment is continuing to grow everywhere.” - dr. Lisa Su
AMD wyjaśniło, że rozwija własne oprogramowanie ROCm, które ma ułatwić deweloperom przejście na ich chipy. Dotychczas Nvidia dominowała rynek dzięki własnemu językowi programowania CUDA, jednak AMD wprowadza ulepszenia, które mają umożliwić łatwiejszą adaptację modeli AI na ich platformę.
AMD celuje w rynek wart pół biliona dolarów
Według AMD, rynek AI w centrach danych może być wart nawet 500 miliardów dolarów do 2028 roku. Firma, która tradycyjnie była na drugim miejscu za Nvidią, stara się teraz zdobyć większy udział w tym dynamicznie rozwijającym się sektorze. Warto zauważyć, że dotychczasowy udział Nvidii w rynku chipów AI wynosi ponad 90%. Instinct MI325X ma w tym pomóc, oferując nawet o 40% lepszą wydajność w modelach typu Llama 3.1, wykorzystywanych przez Metę.
Lisa Su podkreśliła, że popyt na technologie AI rośnie znacznie szybciej, niż przewidywano. Wzrost inwestycji w AI jest widoczny globalnie, co stanowi dla AMD szansę na poszerzenie swojego udziału rynkowego w sektorze, w którym Nvidia ma mocną pozycję.
Nowe procesory EPYC 5. generacji
Wraz z premierą Instinct MI325X, AMD zaprezentowało także nową linię procesorów centralnych (CPU) EPYC 5. generacji, które mają wspierać wydajność chipów AI. AMD oferuje szeroki zakres konfiguracji nowych CPU, od tanich, 8-rdzeniowych układów po potężne 192-rdzeniowe modele przeznaczone dla superkomputerów. Ceny tych procesorów wahają się od 527 do 14 813 dolarów.
AMD dąży do zwiększenia swojego udziału w rynku procesorów, który nadal jest dominowany przez Intela z linią Xeon. Dzięki nowym CPU, AMD planuje konkurować z Intelem i zwiększyć swój udział w rynku do ponad 34%, przy czym AI jest kluczowym obszarem wzrostu. Warto dodać, że według AMD, niemal wszystkie chipy GPU wymagają wsparcia CPU do uruchomienia, co sprawia, że rozwój obu tych technologii jest równie istotny.
AMD umacnia swoją pozycję w AI
Premiera Instinct MI325X oraz nowych procesorów EPYC 5. generacji to dla AMD krok w kierunku umocnienia swojej pozycji na rynku AI. Zwiększona wydajność i szeroka oferta mają na celu przekonanie klientów, by wybierali produkty AMD zamiast Nvidii czy Intela. Choć AMD pozostaje na drugim miejscu, firma jest zdeterminowana, by zdobyć większy udział w rynku, który rozwija się dynamicznie w miarę rosnącego zapotrzebowania na technologie sztucznej inteligencji.
Przypisy:
ROCm (Radeon Open Compute) to otwarte środowisko programistyczne opracowane przez AMD. Jest to platforma przeznaczona dla wysokowydajnych obliczeń i aplikacji sztucznej inteligencji, która umożliwia programowanie na GPU (procesorach graficznych) AMD. ROCm jest odpowiedzią na popularne oprogramowanie CUDA Nvidii i jest skierowane do deweloperów AI oraz obliczeń naukowych, oferując zestaw narzędzi i bibliotek do programowania równoległego.
CUDA (Compute Unified Device Architecture) to platforma i model programowania opracowany przez Nvidię, który pozwala na korzystanie z GPU Nvidii do obliczeń ogólnego przeznaczenia. Dzięki CUDA deweloperzy mogą przyspieszyć działanie aplikacji obliczeniowych i sztucznej inteligencji poprzez równoległe przetwarzanie danych na kartach graficznych. CUDA jest szeroko stosowane w centrach danych oraz w aplikacjach badawczych, dzięki swojej wydajności i popularności na rynku GPU.
Llama (Large Language Model Meta AI) to seria dużych modeli językowych opracowanych przez firmę Meta (dawniej Facebook). Modele te zostały stworzone z myślą o zadaniach związanych z przetwarzaniem języka naturalnego, takich jak generowanie tekstu, odpowiadanie na pytania czy analiza języka. Llama jest konkurencyjna w stosunku do innych modeli AI, takich jak GPT od OpenAI, i jest dostosowana do przetwarzania złożonych danych językowych na dużą skalę.
Źródło: CNBC