Serviço de Notícias da China, 24 de março (China New Finance Reporter Wu Tao) Com o desenvolvimento da inteligência artificial, seu rápido aumento no consumo de eletricidade está levando à vigilância global.O consumo de energia se tornará o "obstáculo" para o desenvolvimento da IA? quanto e um jogo da quina
Escalando, a IA se torna um "tigre elétrico"?
Atualmente, a tecnologia de inteligência artificial se desenvolveu rapidamente, e a demanda de chips aumentou acentuadamente, o que, por sua vez, impulsiona o aumento da demanda de energia.Os dados públicos mostram que o consumo de energia do mercado global de data center aumentou de 10 bilhões de watts há dez anos para o nível de 100 bilhões de watts hoje. quanto e um jogo da quina
De acordo com o Global Times, citou a revista New Yorker, o robô de bate -papo do OpenAi consome mais de 500.000 quilowatt -hours de eletricidade por dia para lidar com cerca de 200 milhões de solicitações de usuário, o que equivale a mais de 17.000 vezes por dia em famílias americanas.
Recentemente, o fundador da Tesla, Musk, declarou publicamente que a indústria de inteligência artificial mudará de "falta de silício" para "escassez de poder" nos próximos dois anos.No início deste ano, o fundador da Openai, Sam Ultraman, também admitiu que realmente precisamos de mais energia do que pensávamos antes, o que nos forçará a investir mais em tecnologia que pode fornecer tanta energia.
De acordo com a previsão do Instituto de Uptime da Agência dos EUA, em 2025, a proporção de negócios de inteligência artificial nos data centers globais aumentará de 2%para 10%. quanto e um jogo da quina
O Relatório de Pesquisa de Securities de Guojin apontou que, com a expansão do modelo, a expansão do número e a expansão do número de atividades diárias, os requisitos de energia de computação relevantes dobrarão.
Li Xiuquan, vice -diretor do Centro de Inteligência Artificial do Instituto de Informações sobre Ciência e Tecnologia da China, disse em entrevista à China New Finanças e Economia que, nos últimos anos, o tamanho e a quantidade de grandes modelos de inteligência artificial aumentaram em alta velocidade, que também trouxe um rápido aumento na demanda de energia.Embora haja problemas como "escassez de energia" a curto prazo, o aumento na demanda de energia após a chegada de inteligência em grande escala no futuro não será ignorada.
Restrição do desenvolvimento da IA?Questões energéticas são valorizadas
Vários sinais mostram que o consumo de eletricidade da IA pode estar além da imaginação, que está diretamente relacionada a se o setor de IA pode se desenvolver sem problemas.Li Xiuquan acredita que a onda de ciência inteligente e revolução tecnológica é imparável, e os problemas energéticos são questões -chave que devem ser tratadas de maneira síncrona.
Esta questão atraiu cada vez mais atenção.Na recente conferência do NVIDIA GTC, o consumo de energia também foi mencionado.
O Boston Consulting Group emitiu um relatório dizendo que, até o final de 2030, o consumo de energia dos dados dos EUA por si só deve ser três vezes o de 2022.Esse aumento é impulsionado principalmente por dois fatores -chave do treinamento de modelos de IA e serviço de maior consulta de IA de frequência.
O "Relatório de Pesquisa sobre o Relatório de Pesquisa em Inovação em Tecnologia de Power Green Computing (2024)", divulgado em 15 de março, afirma que o poder total de computação do meu país aumentou a uma taxa média anual de crescimento de quase 30%nos últimos cinco anos.À medida que a escala geral do setor de energia de computação do meu país cresce rapidamente, o consumo geral de energia e as emissões de carbono da infraestrutura de energia de computação representadas pelos data centers estão se tornando cada vez mais proeminentes, e a política começou a prestar atenção ao uso da energia.
Como lidar com isso?Aumente a razão de energia ou a chave
O desenvolvimento da IA não pode ser separado do poder de computação.Como a IA "traficantes de armas", a NVIDIA está considerando o consumo de energia.Recentemente, diz -se que a nova geração de chips de IA divulgada por ela diminuiu em comparação com a geração anterior.
Huang Renxun, CEO da NVIDIA, usou 8.000 Primeira geração de chip de chip AI Chip robot chatgpt por três meses, que consumirá 15 MW, e usará o novo chip de geração para executar a mesma tarefa ao mesmo tempo, apenas 2.000 chips, energia consumo de consumo de energia consumo é reduzido para 4 MW. quanto e um jogo da quina
Além disso, de acordo com os relatórios da mídia japonesa, a Nvidia planeja comprar chips de memória de alta largura (HBM) da Samsung, que é o componente principal dos processadores de inteligência artificial e está sendo testado atualmente.
Huang Renxun disse: "O HBM é um milagre técnico que pode melhorar a eficiência energética e, à medida que o poder de inteligência artificial que consome poder se torna mais comum, pode ajudar o mundo a se tornar mais sustentável".
Vale ressaltar que muitos data centers na China também levaram em consideração problemas de conservação de energia.Por exemplo, o data center subaquático usa o oceano como uma fonte fria natural, colocando o servidor no recipiente no mar e esfriou naturalmente através do fluxo da água do mar.
Li Xiuquan disse que não precisamos entrar em pânico com a demanda de energia, mas devemos lidar com isso simultaneamente.No futuro, enquanto o poder de computação de chip é atualizado rapidamente, o nível de consumo de energia necessário para o poder de computação unitário continuará a diminuir.Ao mesmo tempo, a tecnologia de refrigeração líquida e a tecnologia de interconexão óptica aumentarão ainda mais a taxa de energia -eficiência dos aglomerados de potência de inteligência artificial; Modelos de consumo de alta energia em grande escala.(sobre) quanto e um jogo da quina
Fale conosco. Envie dúvidas, críticas ou sugestões para a nossa equipe através dos contatos abaixo:
Telefone: 0086-10-8805-0795
Email: portuguese@9099.com