depois que um novo estudo contestou seus resultados.
Em junho de 2021, o Google ganhou as manchetes por desenvolver um sistema baseado em aprendizado por reforço capaz de gerar automaticamente plantas baixas de microchip otimizadas. Esses planos determinam a disposição dos blocos de circuitos eletrônicos dentro do chip: onde coisas como os núcleos da CPU e GPU, memória e controladores periféricos realmente ficam na matriz de silício físico.
O equipamento do mecanismo de busca disse que usou software de IA para projetar seus chips TPU caseiros que aceleram as cargas de trabalho de IA. Basicamente, isso significava que ela estava usando aprendizado de máquina para fazer seus outros sistemas de aprendizado de máquina funcionarem mais rápido.
Plantas baixas são difíceis de criar, pois envolvem muito trabalho manual e automação usando aplicativos de design de chip. O Google pensou que sua abordagem de aprendizado por reforço produziria projetos melhores do que aqueles feitos apenas por engenheiros humanos usando ferramentas do setor
Imagine o suspiro quando o Google anunciou que poderia produzir plantas baixas de chip que eram superiores ou comparáveis às produzidas por humanos em todas as métricas principais, em apenas seis horas.
No entanto, as alegações do Google de seu modelo melhor que os humanos foram contestadas por uma equipe da Universidade da Califórnia, San Diego (UCSD).
Especialista Andrew Kahng passou meses fazendo engenharia reversa do pipeline de planejamento de piso que o Google descreveu na Nature. A gigante da web reteve alguns detalhes do funcionamento interno de seu modelo, citando sensibilidade comercial, então o UCSD teve que descobrir como fazer sua versão completa para verificar as descobertas dos Googlers.
Por fim, eles criaram o código do Google, referido como treinamento de circuito (CT) em seu estudo, mas descobriu que ele tinha um desempenho pior do que os humanos usando métodos e ferramentas tradicionais da indústria.
a equipe da UCSD descobriu que o Google havia usado software comercial desenvolvido pela Synopsys, uma grande fabricante de Conjuntos de automação de design eletrônico (EDA), para criar um arranjo inicial das portas lógicas do chip que o sistema de aprendizado por reforço do gigante da web otimizou.
Ter informações de posicionamento inicial pode melhorar significativamente os resultados do CT.
O artigo do Google mencionou que ferramentas de software padrão da indústria e ajustes manuais foram usados depois que o modelo gerou um layout, principalmente para garantir que o processador funcionaria como pretendido e finalizá-lo para fabricação. O Google argumentou que isso era necessário se a planta baixa foi criada por um algoritmo de aprendizado de máquina ou por humanos com ferramentas padrão, e seu modelo merecia crédito pelo produto final otimizado.
Mas a UCSD apontou que não havia menção no artigo da Nature de ferramentas EDA sendo usadas de antemão para preparar um layout para o modelo. As ferramentas da Synopsys podem ter o modelo tão avançado que as verdadeiras capacidades do sistema de IA eram questionáveis.
Alguns pesquisadores agora estão pedindo à Nature para revisar o artigo original à luz da nova pesquisa.
As principais autoras do artigo do Google, Azalia Mirhoseini e Anna Goldie, disseram que o trabalho da equipe da UCSD poderia ser uma implementação mais precisa de seu método. Eles apontaram que o grupo do professor Kahng obteve resultados piores, pois não pré-treinou seu modelo em nenhum dado.
O grupo UCSD, no entanto, disse que não pré-treinou seu modelo porque eles precisavam de acesso aos dados proprietários mágicos do Google. Eles alegaram, no entanto, que dois outros engenheiros verificaram seu software no Google, que foram listados como coautores do artigo da Nature. O professor Kahng está apresentando o estudo de sua equipe na conferência International Symposium on Physical Design deste ano.