Terminator kommt nicht für Chipdesigner
Eine wichtige von Google geleitete Forschungsarbeit, in der behauptet wird, dass Software für maschinelles Lernen bessere Chips schneller als Menschen entwerfen kann, wurde in Frage gestellt nachdem eine neue Studie ihre Ergebnisse bestritten hat.
Im Juni 2021 machte Google Schlagzeilen mit der Entwicklung eines auf Reinforcement-Learning basierenden Systems, das in der Lage ist, automatisch optimierte Mikrochip-Grundrisse zu generieren. Diese Pläne bestimmen die Anordnung von Blöcken elektronischer Schaltungen innerhalb des Chips: Wo Dinge wie die CPU-und GPU-Kerne sowie Speicher-und Peripheriecontroller tatsächlich auf dem physischen Siliziumchip sitzen.
Das Suchmaschinenunternehmen sagte, dass es KI-Software verwendet, um seine selbst entwickelten TPU-Chips zu entwickeln, die KI-Workloads beschleunigen. Im Grunde bedeutete dies, dass es maschinelles Lernen verwendete, um seine anderen maschinellen Lernsysteme schneller laufen zu lassen.
Grundrisse sind mühsam zu erstellen, da sie viel manuelle Arbeit und Automatisierung mit Chip-Design-Anwendungen erfordern. Google dachte, dass sein Reinforcement-Learning-Ansatz bessere Designs produzieren würde als die, die nur von menschlichen Ingenieuren mit Industriewerkzeugen erstellt wurden.
Stellen Sie sich das Atemholen vor, als Google ankündigte, dass es Chip-Grundrisse produzieren könnte, die denen von Menschen überlegen oder vergleichbar seien in allen wichtigen Messwerten in nur sechs Stunden.
Jedoch wurde die Behauptung von Google bezüglich seines „Besser-als-Mensch“-Modells von einem Team der University of California, San Diego (UCSD) in Frage gestellt.
Top-Experte Andrew Kahng verbrachte Monate mit Reverse Engineering der Floorplaning-Pipeline, die Google in Nature beschrieben hat. Der Webgigant hielt einige Details des Innenlebens seines Modells unter Berufung auf kommerzielle Sensibilität zurück, sodass die UCSD herausfinden musste, wie sie ihre vollständige Version erstellen konnte, um die Ergebnisse der Googler zu überprüfen.
Schließlich erstellten sie den Google-Code, in ihrer Studie als Zirkeltraining (CT) bezeichnet, stellte jedoch fest, dass es mit traditionellen Industriemethoden und-werkzeugen schlechter abschnitt als Menschen.
Das UCSD-Team erfuhr, dass Google kommerzielle Software verwendet hatte, die von Synopsys, einem großen Hersteller von, entwickelt wurde EDA-Suiten (Electronic Design Automation), um eine Ausgangsanordnung der Logikgatter des Chips zu erstellen, die dann vom Reinforcement-Learning-System des Webgiganten optimiert wurde.
Das Vorhandensein anfänglicher Platzierungsinformationen kann die CT-Ergebnisse erheblich verbessern
Das Google-Papier erwähnte, dass branchenübliche Software-Tools und manuelle Anpassungen verwendet wurden, nachdem das Modell ein Layout generiert hatte, hauptsächlich um sicherzustellen, dass der Prozessor wie vorgesehen funktioniert und es für die Fertigung fertigstellt. Google argumentierte, dass dies notwendig sei, unabhängig davon, ob der Grundriss von einem maschinell lernenden Algorithmus oder von Menschen mit Standardwerkzeugen erstellt wurde, und sein Modell verdient Anerkennung für das optimierte Endprodukt.
Aber UCSD wies darauf hin, dass dies nicht erwähnt wurde im Nature-Papier von EDA-Tools, die zuvor verwendet wurden, um ein Layout für das Modell zu erstellen. Synopsys-Tools haben dem Modell möglicherweise einen solchen Vorsprung, dass die wahren Fähigkeiten des KI-Systems fraglich waren.
Einige Forscher bitten Nature nun, das Originalpapier im Lichte der neuen Forschung zu überprüfen.
Die Hauptautoren von Googles Papier, Azalia Mirhoseini und Anna Goldie, sagten, die Arbeit des UCSD-Teams könnte eine genauere Implementierung ihrer Methode sein. Sie wiesen darauf hin, dass die Gruppe von Prof. Kahng schlechtere Ergebnisse erzielte, da sie ihr Modell überhaupt nicht mit irgendwelchen Daten vortrainierte.
Die UCSD-Gruppe sagte jedoch, dass sie ihr Modell nicht vortrainiert habe, weil Sie benötigten Zugriff auf die magischen proprietären Daten von Google. Sie behaupteten jedoch, zwei andere Ingenieure hätten ihre Software bei Google verifiziert, die als Co-Autoren des Nature-Papiers aufgeführt seien. Prof. Kahng stellt die Studie seines Teams auf der diesjährigen International Symposium on Physical Design Konferenz vor.