Um den Supercomputer zu bauen, der die Projekte von OpenAI antreibt, hat Microsoft nach eigenen Angaben Tausende von Nvidia-Grafikprozessoren (GPUs) auf seiner Cloud-Computing-Plattform Azure miteinander verbunden. Dies wiederum ermöglichte es OpenAI, immer leistungsfähigere Modelle zu trainieren und „die KI-Fähigkeiten“ von Tools wie ChatGPT und Bing freizuschalten.
Scott Guthrie, Vizepräsident für KI und Cloud bei Microsoft, sagte, das Unternehmen habe mehrere hundert Millionen Dollar für das Projekt ausgegeben, heißt es in einer Erklärung gegenüber Bloomberg. Und während das für Microsoft, das kürzlich seine mehrjährige Multimilliarden-Dollar-Investition in OpenAI verlängert hat, wie ein Tropfen auf den heißen Stein erscheinen mag, zeigt es sicherlich, dass es bereit ist, noch mehr Geld in den KI-Bereich zu werfen.
Microsoft arbeitet bereits daran, die KI-Funktionen von Azure noch leistungsfähiger zu machen
Microsoft arbeitet bereits daran, die KI-Fähigkeiten von Azure mit der Einführung seiner neuen virtuellen Maschinen, die Nvidias H100- und A100-Tensor-Core-GPUs sowie Quantum-2 InfiniBand-Netzwerke verwenden, ein Projekt, das beide Unternehmen letztes Jahr angeteasert haben, noch leistungsfähiger zu machen. Laut Microsoft soll dies OpenAI und anderen Unternehmen, die auf Azure setzen, ermöglichen, größere und komplexere KI-Modelle zu trainieren.
„Wir haben gesehen, dass wir Spezialcluster aufbauen müssen, die sich darauf konzentrieren, große Trainingsarbeitslasten zu ermöglichen, und OpenAI war einer der ersten Beweise dafür“, sagt Eric Boyd, Microsofts Corporate Vice President of Azure AI, in einer Erklärung. „Wir haben eng mit ihnen zusammengearbeitet, um zu erfahren, wonach sie beim Aufbau ihrer Schulungsumgebungen gesucht haben und was die wichtigsten Dinge sind, die sie brauchen.“