Produtos generativos para serviços de inteligência artificial, como ChatGPT e Midjourney, estão atraindo a atenção do mercado. Nesse cenário, a Associação da Indústria de Inteligência Artificial da Coréia (KAIIA) realizou o 'Gen-AI Summit 2023' em Coex em Samseong-dong, Seul. O evento de dois dias tem como objetivo promover e promover o desenvolvimento de inteligência artificial generativa (IA), que está expandindo todo o mercado.
On the first day, starting with the keynote speech by Jin Junhe, head of the artificial intelligence fusion business department, large technology companies such as Microsoft, Google and AWS actively developing and serving ChatGPT, as well as fabless industries developing artificial intelligence semiconductors attended and made relevant Presentations, including “NLP Changes Brought by ChatGPT” by Persona AI CEO Yoo Seung-jae, and “Building a CHIP DE INFERÊNCIA AI ENCERIFÍCIL E ENCERIÊNCIA DE PODER E-ENCERIÊNCIA de alto desempenho para ChatGPT ”, do CEO da Furiosa AI, Baek Jun-Ho.
Jin Junhe disse que, em 2023, o ano da guerra de inteligência artificial, o plugue do ChatGPT entrará no mercado como uma nova regra de jogo para a enorme competição de modelos de idiomas entre o Google e a MS. Nesse caso, ele prevê oportunidades em semicondutores e aceleradores de IA que apóiam os modelos de IA.
A Furiosa AI é uma empresa representativa que fabrica semicondutores de IA na Coréia. O CEO da Furiosa AI, Baek, que está trabalhando duro para desenvolver os semicondutores de AI de uso geral para alcançar a Nvidia, que mantém a maior parte do mercado mundial de AI em escala hiperescária, está convencida de que "a demanda por chips no campo da IA explodirá no futuro"
À medida que os serviços de IA se tornam mais complexos, eles inevitavelmente enfrentam custos de infraestrutura aumentados. Os produtos atuais de GPU A100 e H100 da NVIDIA têm o alto desempenho e o poder de computação necessário para a computação de inteligência artificial, mas devido ao aumento dos custos totais, como consumo de alto consumo de energia e custos de implantação, mesmo as empresas em escala ultra-grande são cautelosas para a troca de produtos da próxima geração. A relação custo-benefício expressou preocupação.
Nesse sentido, Baek previu a direção do desenvolvimento tecnológico, dizendo que, além de mais e mais empresas que adotam soluções de inteligência artificial, a demanda do mercado será maximizar a eficiência e o desempenho dentro de um sistema específico, como "economia de energia".
Além disso, ele enfatizou que o ponto de propagação do desenvolvimento de semicondutores de inteligência artificial na China é 'usabilidade' e disse que como resolver o suporte ao ambiente de desenvolvimento e a 'programação' será a chave.
A Nvidia construiu o CUDA para mostrar seu ecossistema de suporte e garantir que a comunidade de desenvolvimento apoie estruturas representativas para aprendizado profundo, como Tensorflow e Pytoch, está se tornando uma importante estratégia de sobrevivência para produzir.
Hora de postagem: maio de 29-2023