Liczba wyświetleń: 922
W świecie sztucznej inteligencji szykuje się prawdziwa rewolucja. OpenAI, firma stojąca za takimi przełomowymi projektami jak ChatGPT czy DALL-E, przygotowuje się do wprowadzenia własnego układu scalonego przeznaczonego do trenowania modeli AI. Według najnowszych informacji ujawnionych przez agencję Reuters, projekt znajduje się już w końcowej fazie przygotowań, a jego wdrożenie może fundamentalnie zmienić układ sił na rynku technologicznym.
Nowy chip ma być produkowany przez tajwańskiego giganta TSMC z wykorzystaniem najnowocześniejszej technologii 3-nanometrowej. To niezwykle zaawansowany proces produkcyjny, który pozwala na umieszczenie ogromnej liczby tranzystorów na niewielkiej powierzchni krzemu. Przekłada się to bezpośrednio na zwiększoną wydajność i zmniejszone zużycie energii — dwa kluczowe parametry w kontekście energochłonnych obliczeń związanych z trenowaniem modeli AI.
Sercem nowego układu ma być architektura macierzy systolicznej, specjalizowana struktura obliczeniowa, która doskonale sprawdza się w równoległym przetwarzaniu danych. To podobne rozwiązanie do tego, które stosuje Nvidia w swoich najnowszych akceleratorach AI. Chip zostanie również wyposażony w pamięć o wysokiej przepustowości, co jest niezbędne do efektywnego trenowania dużych modeli językowych i sieci neuronowych.
Aby zrealizować ten ambitny projekt, OpenAI znacząco rozbudowuje swój zespół sprzętowy. Kluczowym ruchem było zatrudnienie Richarda Ho, byłego lidera inżynierii chipów w Lightmatter i szefa zespołu odpowiedzialnego za rozwój Google TPU. Jego doświadczenie w projektowaniu zaawansowanych układów AI może okazać się bezcenne dla powodzenia całego przedsięwzięcia. Obecnie zespół OpenAI zajmujący się rozwojem własnych układów scalonych liczy około 40 specjalistów i współpracuje z firmą Broadcom, która ma na swoim koncie udział w rozwoju procesorów Google TPU.
Decyzja OpenAI o wejściu na rynek półprzewodników nie jest przypadkowa. Firma chce uniezależnić się od dominacji Nvidii, której procesory graficzne obecnie stanowią podstawę infrastruktury wykorzystywanej do trenowania modeli AI. Własne układy scalone nie tylko dadzą OpenAI większą kontrolę nad procesem rozwoju i trenowania modeli, ale mogą też znacząco obniżyć koszty operacyjne. W obliczu globalnego niedoboru chipów i rosnącej konkurencji w sektorze AI, taka niezależność może okazać się kluczowym czynnikiem sukcesu.
Według planów, masowa produkcja nowego układu ma ruszyć w 2026 roku. To ambitny harmonogram, biorąc pod uwagę złożoność procesu projektowania i produkcji zaawansowanych układów scalonych. Jednak OpenAI nie jest samo w wyścigu o dominację na rynku sprzętu AI. Własne rozwiązania sprzętowe rozwijają także inne giganci technologiczni, w tym Amazon i Microsoft, którzy już wykorzystują autorskie układy scalone w swoich centrach danych.
Źródło: ZmianyNaZiemi.pl
Jak już pisałem gdzieś, potwierdza się starte powiedzenie: pucha kroczy przed upadkiem.
Sprawdziło się w przypadku Intela, sprawdzi się i u nVidii.
KubaD
W przypadku nvidii ma ona dywersyfikację w postaci układów graficznych. W tym segmencie niepodzielnie króluje . Nie wyjdzie z AI, to wróci do grafiki i tyle. Intel nie miał takiej dywersyfikacji.