O ChatGPT está quente em todo o mundo, e as principais empresas de tecnologia adicionaram inteligência artificial.No entanto, a tecnologia emergente das ferramentas de robô de bate -papo não apenas tem problemas em termos de precisão, mas também faz com que as empresas de P&D tenham altos custos operacionais.
Em 22 de fevereiro, horário local, John Hennessy, presidente da empresa controladora do Google, Alphabet, disse em uma entrevista da Reuters que o custo do diálogo em inteligência artificial, como grandes modelos de idiomas, pode ser mais de 10 vezes o dos mecanismos de pesquisa tradicionais.Ele acredita que o Google deve reduzir os custos operacionais dessa inteligência artificial, mas esse processo não é fácil.
O robô de bate -papo custa alto
Comparado aos mecanismos de pesquisa tradicionais, o custo operacional dos robôs de bate -papo é um pouco alto.
A análise de Morgan Stanley disse que o Google no ano passado, um total de 3,3 trilhões de pesquisas, o custo de cada pesquisa foi de apenas 0,2 centavos.Anteriormente, alguns analistas apontaram que uma resposta do ChatGPT gerará um custo de 2 centavos.
O Morgan Stanley prevê que, se o robô de bate -papo do Google Bard for introduzido em um mecanismo de pesquisa e o usar para lidar com metade da pesquisa e questionamento do Google, calcule o custo da empresa de 2024 de acordo com 50 palavras por resposta.
Da mesma forma, a Semiânica, uma empresa de consultoria com foco na tecnologia de chips, disse que, devido às unidades internas de processamento de tensores de chip do Google, adicionar robôs de bate -papo aos mecanismos de pesquisa pode levar a empresa a gastar US $ 3 bilhões adicionais.
Richard Socher, o diretor executivo do mecanismo de pesquisa você.com, acredita que adicionar robôs de bate -papo, gráficos, vídeos e outros aplicativos de tecnologia de geração corresponderão a 30%a 50%de despesas adicionais.No entanto, ele acredita que "com o tempo, essas tecnologias se tornarão cada vez mais baratas".
O custo dos robôs de bate -papo é maior que a pesquisa tradicional, principalmente porque o poder de computação é maior.Os analistas dizem que essa inteligência artificial depende de um chip no valor de bilhões de dólares, e o custo aumentará o custo do custo do custo de vários anos.Além disso, o consumo de eletricidade também levará ao aumento dos custos e também trará a pressão da empresa nos indicadores de emissão de carbono.
O bate -papo inteligência artificial robótica não é o mesmo que o princípio de trabalho dos mecanismos de pesquisa.O processo de inteligência artificial para lidar com os problemas do usuário é chamado de "inferência".Nos mecanismos de pesquisa tradicionais, os rastreadores da Internet do Google digitalizam a Internet e preparam o índice de informações.Quando os usuários inserem perguntas de pesquisa, o Google fornecerá as respostas mais relacionadas armazenadas nos índices.
Para os robôs de bate -papo, quanto maior a escala do modelo de idioma depende, mais chips precisam suportar "raciocínio" e o custo correspondente é maior. como escolher dezenas da mega sena
Tomando ChatGPT como exemplo, sua fonte técnica é o modelo de processamento de linguagem natural do OpenAI (PNL) GPT-3
Portanto, o custo do chatgpt é alto.O diretor executivo da Openai, Sam Altman, disse uma vez no Twitter que o custo de conversar com usuários com usuários é muito "incrível", e cada diálogo requer alguns dólares ou mais. como escolher dezenas da mega sena
De acordo com a Microsoft, de acordo com a situação de carregamento da Microsoft de uma única AGPU, o custo do chatgpt gerou uma palavra de US $ 0,0003.
Nesse sentido, Henis disse: "Você deve reduzir o custo do raciocínio, e o pior caso leva alguns anos (resolva esse problema)".
As empresas de ciências e tecnologia tentam reduzir custos
Embora o robô de bate -papo traga gastos adicionais para a empresa, ele também trará crescimento do usuário.
A Microsoft disse anteriormente que, dentro de 48 horas da nova versão, mais de 1 milhão de usuários registraram a nova versão do Bing Ying.A análise dos dados da empresa de dados de terceiros.
Amy Hood, diretora financeira da Microsoft, também disse aos analistas que, à medida que a nova versão do Bing Bing é lançada, o aumento do número de usuários e os benefícios da receita de publicidade excederam o custo.Ela acredita que a margem de lucro bruta da empresa está realmente crescendo.
No entanto, algumas pessoas propuseram que a empresa precisa tomar medidas para reduzir custos.Um executivo técnico sênior disse em uma entrevista à Reuters que o custo atual ainda é muito alto para fazer com que milhões de consumidores usem inteligência artificial.O executivo disse: "Esses modelos são muito caros, portanto, o foco do próximo estágio é reduzir o custo do treinamento e o raciocínio desses modelos para que os usuários possam usá -los em cada aplicativo". como escolher dezenas da mega sena
Alguns especialistas técnicos acreditam que uma das maneiras de reduzir custos é usar modelos menores de inteligência artificial e aplicá -lo a tarefas mais simples.
O Alphabet está atualmente explorando esse caminho.Seu robô de bate -papo Bard é baseado no modelo de linguagem de diálogo em grande escala da empresa, a versão leve da Lamda.Comparado com a versão padrão, o poder de computação necessário para o modelo de versão leve é menor, o que pode ser aberto a mais usuários e permite que eles participem da experiência.
Algumas pessoas familiarizadas com o assunto revelaram que os cientistas da computação da Openai descobriram como otimizar o custo do raciocínio por código complexo para melhorar a eficiência da operação de chips.
Além de reduzir os custos, a empresa também obtém receita cobrando taxas.No início de fevereiro, o Openai anunciou o lançamento da versão paga do ChatGPT Plus, ao preço de US $ 20 por mês.As funções da versão paga incluem remo na fila, resposta rápida e novas funções.
Fale conosco. Envie dúvidas, críticas ou sugestões para a nossa equipe através dos contatos abaixo:
Telefone: 0086-10-8805-0795
Email: portuguese@9099.com