Generatywna wojna AI ze sztuczną inteligencją, „zapotrzebowanie na chipy AI eksploduje”

Uwagę rynku przyciągają produkty usług generatywnej sztucznej inteligencji, takie jak ChatGPT i Midjourney.W tym kontekście Koreańskie Stowarzyszenie Branży Sztucznej Inteligencji (KAIIA) zorganizowało „Gen-AI Summit 2023” w COEX w Samseong-dong w Seulu.Dwudniowe wydarzenie ma na celu promowanie i przyspieszenie rozwoju generatywnej sztucznej inteligencji (AI), która rozszerza cały rynek.

Pierwszego dnia, począwszy od przemówienia programowego wygłoszonego przez Jin Junhe, szefa działu biznesowego fuzji sztucznej inteligencji, wzięły w nim udział duże firmy technologiczne, takie jak Microsoft, Google i AWS, aktywnie rozwijające i obsługujące ChatGPT, a także branże fabless opracowujące półprzewodniki sztucznej inteligencji. przedstawił odpowiednie prezentacje, w tym „Zmiany NLP wprowadzone przez ChatGPT” autorstwa dyrektora generalnego Persona AI, Yoo Seung-jae, oraz „Budowanie wysokowydajnego, energooszczędnego i skalowalnego układu inferencyjnego AI dla ChatGPT” autorstwa dyrektora generalnego Furiosa AI, Baeka Jun-ho.

Jin Junhe powiedział, że w 2023 roku, roku wojny o sztuczną inteligencję, wtyczka ChatGPT wejdzie na rynek jako nowa reguła gry w ogromnej rywalizacji modeli językowych między Google a MS.W tym przypadku przewiduje możliwości w półprzewodnikach AI i akceleratorach, które wspierają modele AI.

Furiosa AI jest reprezentatywną firmą fabless produkującą półprzewodniki AI w Korei.Dyrektor generalny Furiosa AI, Baek, który ciężko pracuje nad opracowaniem półprzewodników AI ogólnego przeznaczenia, aby dogonić Nvidię, która posiada większość światowego rynku sztucznej inteligencji w hiperskali, jest przekonany, że „popyt na chipy w dziedzinie sztucznej inteligencji eksploduje w przyszłości ”

W miarę jak usługi AI stają się coraz bardziej złożone, nieuchronnie stają w obliczu zwiększonych kosztów infrastruktury.Obecne produkty GPU Nvidii A100 i H100 charakteryzują się wysoką wydajnością i mocą obliczeniową wymaganą do przetwarzania sztucznej inteligencji, ale ze względu na wzrost kosztów całkowitych, takich jak wysokie zużycie energii i koszty wdrożenia, nawet bardzo duże przedsiębiorstwa obawiają się przechodzenia na produkty nowej generacji.Stosunek kosztów do korzyści wyrażał zaniepokojenie.

W tym zakresie Baek przewidział kierunek rozwoju technologicznego, mówiąc, że oprócz coraz większej liczby firm wdrażających rozwiązania sztucznej inteligencji, popytem rynkowym będzie maksymalizacja wydajności i wydajności w ramach określonego systemu, np. „oszczędność energii”.

Ponadto podkreślił, że punktem rozprzestrzeniania się rozwoju półprzewodników sztucznej inteligencji w Chinach jest „użyteczność” i powiedział, jak rozwiązać wsparcie środowiska programistycznego, a „programowalność” będzie kluczem.

Nvidia zbudowała CUDA, aby zaprezentować swój ekosystem wsparcia, a zapewnienie, że społeczność programistów wspiera reprezentatywne ramy dla głębokiego uczenia się, takie jak TensorFlow i Pytoch, staje się ważną strategią przetrwania w produkcji.


Czas postu: 29-05-2023