[테크월드뉴스=조명의 기자] A Friendly AI anunciou o sistema “Orca” que aumenta a eficiência de modelos generativos como o GPT-3.
Orca é um sistema de renderização que permite inferência eficiente para modelos gigantes de IA. A fim de eliminar o atraso ineficaz que ocorreu no sistema de serviço atual, foram aplicadas técnicas básicas, como programação de unidades iterativas e processamento seletivo em lote.
Enquanto o sistema atual era tal que ninguém podia descer ou andar de carrossel até que a pessoa que queria andar estivesse satisfeita por mais tempo, o Orca permite que as pessoas desçam e entrem em um carrossel toda vez que virar, tornando-o mais eficiente e satisfatório. Isso torna possível dirigir mais alto.
Com isso, é possível realizar a tarefa de criar um modelo de linguagem supervolumoso a uma velocidade dez vezes maior que a velocidade do sistema atual. Em particular, espera-se que o custo do uso do modelo de superlinguagem massivo seja reduzido em várias ordens de magnitude, o que melhorará a acessibilidade do usuário. A AI amigável oferece um serviço massivo de IA que usa o Orca.
Os resultados deste estudo foram apresentados sob o título “Orca: A Distributed Service System for Switch-Based Generative Models” na conferência OSDI (Operating Systems Design and Implementation) 2022, a principal conferência na área de sistemas computacionais, em 13 de julho. . .
Byeong-gon Jeon, CEO da Friendly AI, disse: “Para fazer bom uso de modelos muito grandes como o OpenAI GPT-3, é importante não apenas coletar dados e aprender o modelo, mas também maximizar a eficiência do sistema ao usar o modelo. Espero que isso se torne uma oportunidade de ser amplamente utilizado em muitos produtos.”
A Friendly AI é uma startup que fornece o Periflow, uma plataforma que ajuda qualquer pessoa a desenvolver inteligência artificial em larga escala de maneira fácil e rápida. O Periflow é uma plataforma baseada em nuvem que automatiza todo o processo, desde o treinamento de modelos de IA em larga escala até a realização de inferências. Use IA compatível com perifluxo para aprender e detectar um modelo de linguagem “GPT-FAI 13B” em grande escala que usa 13 bilhões de parâmetros.
“Pensador. Aspirante a amante do Twitter. Empreendedor. Fã de comida. Comunicador total. Especialista em café. Evangelista da web. Fanático por viagens. Jogador.”