Wojna o sztuczną inteligencję generatywną, „eksploduje popyt na chipy AI”

Produkty usług generatywnej sztucznej inteligencji, takie jak ChatGPT i Midjourney, przyciągają uwagę rynku. W tym kontekście Koreańskie Stowarzyszenie Przemysłu Sztucznej Inteligencji (KAIIA) zorganizowało „Szczyt Gen-AI 2023” w COEX w Samseong-dong w Seulu. Dwudniowe wydarzenie ma na celu promocję i rozwój rozwoju generatywnej sztucznej inteligencji (AI), która rozszerza cały rynek.

Pierwszego dnia, począwszy od przemówienia programowego wygłoszonego przez Jin Junhe, szefa działu biznesowego fuzji sztucznej inteligencji, wzięły udział duże firmy technologiczne, takie jak Microsoft, Google i AWS, aktywnie rozwijające i obsługujące ChatGPT, a także branże fabless rozwijające półprzewodniki sztucznej inteligencji, które przeprowadził odpowiednie prezentacje, w tym „Zmiany NLP wprowadzone przez ChatGPT” autorstwa dyrektora generalnego Persona AI Yoo Seung-jae oraz „Budowanie wysokowydajnej, energooszczędnej i skalowalnej sztucznej inteligencji Chip wnioskowania dla ChatGPT” autorstwa dyrektora generalnego Furiosa AI, Baeka Jun-ho.

Jin Junhe powiedział, że w 2023 roku, roku wojny ze sztuczną inteligencją, wtyczka ChatGPT wejdzie na rynek jako nowa zasada gry w ogromnej konkurencji modeli językowych między Google a MS. W tym przypadku przewiduje możliwości w zakresie półprzewodników i akceleratorów AI obsługujących modele AI.

Furiosa AI jest reprezentatywną firmą bez fabryk produkującą półprzewodniki AI w Korei. Dyrektor generalny Furiosa AI Baek, który ciężko pracuje nad opracowaniem półprzewodników AI ogólnego przeznaczenia, aby dogonić firmę Nvidia, która posiada większość światowego rynku hiperskalowej sztucznej inteligencji, jest przekonany, że „popyt na chipy w dziedzinie sztucznej inteligencji w przyszłości eksploduje ”

W miarę jak usługi AI stają się coraz bardziej złożone, nieuchronnie muszą stawić czoła rosnącym kosztom infrastruktury. Obecne produkty GPU Nvidia A100 i H100 charakteryzują się wysoką wydajnością i mocą obliczeniową wymaganą do obliczeń w oparciu o sztuczną inteligencję, ale ze względu na wzrost kosztów całkowitych, takich jak wysokie zużycie energii i koszty wdrożenia, nawet bardzo duże przedsiębiorstwa nieufnie podchodzą do przejścia na produkty nowej generacji. Stosunek kosztów do korzyści wyraził obawy.

W tym względzie Baek przewidział kierunek rozwoju technologii, stwierdzając, że oprócz coraz większej liczby firm wdrażających rozwiązania sztucznej inteligencji, popytem rynkowym będzie maksymalizacja wydajności i wydajności w ramach konkretnego systemu, np. „oszczędzanie energii”.

Ponadto podkreślił, że głównym czynnikiem rozwoju półprzewodników sztucznej inteligencji w Chinach jest „użyteczność” i powiedział, że kluczowe będzie rozwiązanie kwestii wsparcia środowiska programistycznego i „programowalności”.

Nvidia zbudowała CUDA, aby zaprezentować swój ekosystem wsparcia, a zapewnienie, że społeczność programistów obsługuje reprezentatywne platformy głębokiego uczenia się, takie jak TensorFlow i Pytoch, staje się ważną strategią przetrwania w produkcji.


Czas publikacji: 29 maja 2023 r