KI-Pionier Geoffrey Hinton sieht Google im Wettlauf gegen OpenAI vorne – dank eigener Chips, massiver Infrastruktur und wachsender Bedeutung.
Geoffrey Hinton ist nicht einfach irgendein Kommentator. Der britisch-kanadische Informatiker und Kognitionspsychologe hat das Feld, das wir heute unter dem Begriff „Künstliche Intelligenz” zusammenfassen, maßgeblich mit aufgebaut. Neuronale Netze, Backpropagation – all das trägt maßgeblich seine Handschrift. Dafür erhielt er erst den Turing Award und 2024 den Physik-Nobelpreis.
Jetzt sitzt Hinton nicht mehr im Google-Büro, sondern daneben. Er schaut zu, wie die großen Konzerne um LLMs wetteifern. In einem aktuellen Interview sagt er, Google sei dabei, OpenAI zu überholen, und werde den Wettlauf voraussichtlich für sich entscheiden.
Vom Konzernforscher zum freien Warner
Hinton war viele Jahre Teil der Google-Forschungsabteilung „Brain“, also genau dort, wo die Grundlagen für die aktuellen Modelle entstanden sind. Nach der Preisverleihung zog er den Stecker und ging offiziell in den Ruhestand. Sein Argument war damals, dass er frei über Risiken sprechen wolle, ohne Rücksicht auf einen Arbeitgeber nehmen zu müssen.
Seitdem warnt Geoffrey Hinton immer wieder vor den Nebenwirkungen der aktuellen KI-Modellwelle. Er befürchtet einen um sich greifenden Jobabbau, die weiter steigende Ungleichheit und sehr mächtige Modelle, die sich im Zweifel nicht mehr sauber kontrollieren lassen. In mehreren Interviews spricht er offen davon, dass die Wahrscheinlichkeit für ernsthafte Schäden durch KI aus seiner Sicht gestiegen ist.
Dass ausgerechnet dieser Hinton jetzt Google vorne sieht, macht seine Einschätzung spannender als das übliche „Wer führt in welchem Benchmark?”, was nur tagesaktuelle Trends festhält.
Warum Geoffrey Hinton Google vorne sieht
Im aktuellen Gespräch wirkt er weniger euphorisch als vielmehr irritiert. Er wundert sich sehr darüber, dass es so lange gedauert hat, bis Google wieder eine führende Rolle bei der Entwicklung von KI einnehmen konnte. Technisch lag der Konzern lange vor allen anderen. Die Transformer-Architektur, große Sprachmodelle und die frühen, ausgereiften Chatbots wurden zuerst in den eigenen Rechenzentren ausprobiert, bevor daraus Produkte für die breite Masse wurden.
Heute präsentiert Google mit Gemini 3 ein Modell, das in vielen Tests auf Augenhöhe mit GPT-5 eingestuft wird und teilweise sogar leicht darüber liegt. Hinzu kommt der Bildgenerator Nano Banana Pro, der als besonders leistungsfähig gilt. Für Hinton sind dies sichtbare Zeichen dafür, dass Google nicht mehr nur hinterherläuft, sondern wieder den Takt mitbestimmt, wenn nicht sogar vorgibt.
Seine eigentliche Begründung liegt jedoch eine Etage tiefer, nämlich bei der massiven Infrastruktur, die Google betreibt.

Der Hardware-Vorteil im Hintergrund
Er betont, dass Google nicht nur Modelle entwickelt, sondern auch die Hardware baut, auf der diese Modelle laufen, sowie die dazugehörigen Rechenzentren, in denen alles maßgSeschneidert aus eigener Entwicklung zusammenkommt. Gemeint sind damit vor allem die hausinternen Tensor Processing Units (TPUs), die Google seit Jahren Generation für Generation in den eigenen Forschungsabteilungen weiterentwickelt.
Die aktuellen Ausbaustufen wie „Trillium” sind nicht mehr einfach nur normale Beschleunigerkarten, die man in irgendeinen Server steckt. Sie sind auf komplette Cluster ausgelegt und verfügen über ein High Bandwidth Memory, schnelle Verbindungen zwischen den Chips und ganzen Pods, die man speziell für Training und Inferenz entwickelt hat. Analysen beschreiben Rechenzentren mit sehr niedriger Power Usage Effectiveness (PUE), also einem vergleichsweise geringen zusätzlichen Stromverbrauch für die Kühlung und Infrastruktur. Das senkt die Kosten für den Betrieb im Vergleich zu vielen anderen Unternehmen wie Facebook und Microsoft, die für ihre Rechenzentren sogar dabei sind, alte AKWs in den USA wieder zu reaktivieren, um ihren Stromhunger zu stillen.
Hinton fasst das wie eh und je nüchtern zusammen: „Sehr viele Forscher, sehr viele Daten, sehr viele Rechenzentren.” Er ist überzeugt, dass dieser Mix Google langfristig nach vorne bringen wird.
OpenAI steht zwischen GPU-Hunger und Partnern
OpenAI steht auf der anderen Seite. Das Unternehmen baut keine eigenen Chips, sondern ist von Nvidia und den Rechenzentren seiner Partner abhängig. Berichte über einen möglichen Deal im Wert von 100 Milliarden Dollar zwischen Nvidia und OpenAI zeigen, welche Größenordnung diese Abhängigkeit inzwischen erreicht hat. Es geht um mehrere Gigawatt an Rechenleistung und Millionen GPUs, die über mehrere Jahre hinweg fest verplant wären. Der Vertrag, der diese Kooperation besiegelt, ist jedoch noch nicht final.
Dazu kommen enge Verflechtungen mit Microsoft. Interne Unterlagen und Analysen zeichnen ein Bild, in dem OpenAI massiv auf die Azure-Infrastruktur setzt, während sich Microsoft über Beteiligungen und Umsatzanteile langfristig Zugriff auf die Modelle sichert.
Neu ist, dass OpenAI parallel dazu eine weitere große Vereinbarung über Rechenzentrumsvolumen mit Amazons AWS eingegangen ist. Auch hier geht es um Milliardenbeträge und langfristige Zusagen. Daran erkennt man, dass OpenAI verzweifelt versucht, sich gegen Engpässe und Preissprünge bei GPUs abzusichern.
Vor diesem Hintergrund klingt Hintons Satz, Google sei dabei, OpenAI zu überholen, weniger nach Bauchgefühl. Es ist vielmehr eine pragmatische Bestandsaufnahme der Lieferketten, die im Hintergrund die Maschinen am Laufen halten.
Anthropic, Meta und Google bilden die unsichtbare Basis
Das Feld besteht aber schon lange nicht mehr nur aus diesen beiden Namen. Anthropic hat sich in kurzer Zeit als dritter großer Anbieter etabliert – noch vor Meta – und setzt seinerseits massiv auf Googles Infrastruktur. Ein aktueller Milliardenvertrag sieht vor, dass große Teile der Modelle langfristig auf der TPU-Plattform laufen. Genau das sorgt dafür, dass sich Anthropics Architektur immer stärker an Googles Ökosystem anlehnt.
Parallel dazu versucht Meta, mit eigenen Open-Source-Modellen und selbst entwickelter Hardware gegenzuhalten. Gleichzeitig tauchen immer wieder Berichte auf, dass Google auch Meta seine Chips zum Kauf anbieten könnte. In dieser Konstellation wird leider wieder deutlich, wie sehr Google sich in die Rolle eines Infrastrukturanbieters drängt, der nicht nur eigene Modelle betreibt, sondern auch andere Akteure hinter den Kulissen mitversorgt und damit eine Abhängigkeit von sich selbst schafft.
Wenn Hinton sagt, Google werde OpenAI überholen, dann meint er damit nicht nur den direkten Modellvergleich, sondern auch dieses gesamte Geflecht aus Cloud-Verträgen, Chip-Lieferungen und Abhängigkeiten.
Sicherheitskultur und Tempo
Ein zweiter Aspekt in Hintons Aussagen betrifft die Sicherheitskultur. Google bremste die Entwicklung intern lange aus, aus Angst vor einem Debakel wie bei Microsofts Chatbot Tay, der nach wenigen Stunden aufgrund rassistischer Ausfälle offline genommen werden musste. Obwohl die Infrastruktur und das Wissen vorhanden waren, blieben Chatbots lange Zeit intern, besonders weil ein beschädigtes Markenimage schwieriger zu reparieren ist, als ein verspäteter Produktstart.
Start-ups wie OpenAI hatten diese Bremse nicht. Sie mussten lautstark auf sich aufmerksam machen, um Geld und Marktanteile einzusammeln. Sie konnten Strukturen für Sicherheit und Kontrolle erst nachziehen, als man die Systeme längst auf die breite Masse losgelassen hatte. Hinton stellt Google an dieser Stelle eher als schwerfälligen Konzern dar. Dieser ist schon aufgrund seiner Größe dazu gezwungen, etwas vorsichtiger zu agieren.
Das heißt jedoch nicht, dass er Google zum Vorbild erklärt. In anderen Gesprächen wirft er großen Tech-Firmen vor, Risiken klein zu reden, solange es dem eigenen Geschäft nutzt. Er warnt davor, dass die Angst vor „Super-KI“ gerne auch genutzt wird, um Regulierung in eine konzernfreundliche Richtung zu schieben.
Seine aktuelle Einschätzung verschiebt also nicht seine Sorgen, sondern nur die Rangliste derer, die aus seiner Sicht am längeren Hebel sitzen.
Geoffrey Hinton: Was von seiner Prognose übrig bleibt
Am Ende bleibt ein relativ klares Bild im Kopf. Hinton ist der Meinung, dass Google die besseren Karten hat. Der Konzern liefert Modelle, eigene Chips und Rechenzentren aus einer Hand und stellt sich zudem als Infrastruktur für andere Anbieter zur Verfügung. OpenAI ist dagegen von externen Herstellern und Cloud-Partnern abhängig, die ihrerseits eigene Interessen verfolgen.
Für uns als Kunden ist es am Ende ziemlich egal, ob im Hintergrund ein Logo drei Benchmark-Punkte vorne liegt. Wichtiger ist, dass diese Modelle längst in Suchmaschinen, Betriebssystemen, Office-Paketen, Clouddiensten und Apps stecken. Sie sollen dort zahlreiche Inhalte für uns filtern und Entscheidungen für uns treffen.
Hintons Wette beantwortet deshalb nur eine Nebenfrage. Die Hauptfrage ist, ob jemand dieses Rennen noch verlangsamt, bevor sich die Infrastruktur so verfestigt, dass einige Konzerne dauerhaft bestimmen, wie „intelligent” unsere digitale Umgebung ist und welche Risiken wir dafür in Kauf nehmen sollen.



















