Produtos de serviços generativos de inteligência artificial, como ChatGPT e Midjourney, estão atraindo a atenção do mercado. Neste contexto, a Associação da Indústria de Inteligência Artificial da Coreia (KAIIA) realizou a 'Cúpula Gen-AI 2023' no COEX em Samseong-dong, Seul. O evento de dois dias tem como objetivo promover e avançar no desenvolvimento da inteligência artificial generativa (IA), que está expandindo todo o mercado.
No primeiro dia, começando com o discurso de Jin Junhe, chefe do departamento de negócios de fusão de inteligência artificial, grandes empresas de tecnologia como Microsoft, Google e AWS desenvolvendo e servindo ativamente o ChatGPT, bem como indústrias sem fábrica que desenvolvem semicondutores de inteligência artificial compareceram e fez apresentações relevantes, incluindo “Mudanças de PNL trazidas pelo ChatGPT” pelo CEO da Persona AI, Yoo Seung-jae, e “Construindo um chip de inferência de IA de alto desempenho, eficiente em termos de energia e escalável para ChatGPT” pelo CEO da Furiosa AI, Baek Jun-ho.
Jin Junhe disse que em 2023, ano da guerra da inteligência artificial, o plug ChatGPT entrará no mercado como uma nova regra de jogo para a enorme competição de modelos de linguagem entre Google e MS. Neste caso, ele prevê oportunidades em semicondutores e aceleradores de IA que suportam modelos de IA.
Furiosa AI é uma empresa representativa que fabrica semicondutores de IA na Coréia. O CEO da Furiosa AI, Baek, que está trabalhando duro para desenvolver semicondutores de IA de uso geral para alcançar a Nvidia, que detém a maior parte do mercado mundial de IA em hiperescala, está convencido de que “a demanda por chips no campo de IA explodirá no futuro ”
À medida que os serviços de IA se tornam mais complexos, enfrentam inevitavelmente custos de infraestrutura mais elevados. Os atuais produtos de GPU A100 e H100 da Nvidia têm o alto desempenho e o poder de computação necessários para a computação de inteligência artificial, mas devido ao aumento nos custos totais, como alto consumo de energia e custos de implantação, mesmo empresas de grande porte têm medo de mudar para produtos de próxima geração. A relação custo-benefício expressou preocupação.
Nesse sentido, Baek previu a direção do desenvolvimento tecnológico, dizendo que além de cada vez mais empresas adotarem soluções de inteligência artificial, a demanda do mercado será maximizar a eficiência e o desempenho dentro de um sistema específico, como “economia de energia”.
Além disso, ele enfatizou que o ponto de propagação do desenvolvimento de semicondutores de inteligência artificial na China é a 'usabilidade' e disse que como resolver o apoio ao ambiente de desenvolvimento e a 'programabilidade' serão a chave.
A Nvidia construiu CUDA para mostrar seu ecossistema de suporte, e garantir que a comunidade de desenvolvimento suporte estruturas representativas para aprendizado profundo, como TensorFlow e Pytoch, está se tornando uma importante estratégia de sobrevivência para a produtização.
Horário da postagem: 29 de maio de 2023