Microsoft entließ im Rahmen dessen sein gesamtes Ethik- und Gesellschaftsteam innerhalb der Organisation für künstliche Intelligenz kürzliche Entlassungen Davon waren 10.000 Mitarbeiter im gesamten Unternehmen betroffen, hat Platformer erfahren.
Der Schritt lässt Microsoft ohne ein dediziertes Team zurück, um sicherzustellen, dass seine KI-Prinzipien eng mit dem Produktdesign verknüpft sind, zu einer Zeit, in der das Unternehmen die Verantwortung trägt, KI-Tools dem Mainstream zur Verfügung zu stellen, sagten aktuelle und ehemalige Mitarbeiter.
Microsoft unterhält weiterhin eine aktive Büro des verantwortlichen AI, das mit der Erstellung von Regeln und Prinzipien für die KI-Initiativen des Unternehmens beauftragt ist. Das Unternehmen sagt, dass seine Gesamtinvestitionen in verantwortungsvolle Arbeit trotz der jüngsten Entlassungen zunehmen.
„Microsoft engagiert sich dafür, KI-Produkte und -Erlebnisse sicher und verantwortungsbewusst zu entwickeln, und investiert dazu in Menschen, Prozesse und Partnerschaften, die dies priorisieren“, sagte das Unternehmen in einer Erklärung. „In den letzten sechs Jahren haben wir die Anzahl der Mitarbeiter in unseren Produktteams und im Office of Responsible AI erhöht, die zusammen mit uns allen bei Microsoft dafür verantwortlich sind, dass wir unsere KI-Prinzipien in die Praxis umsetzen. (…) Wir wissen die bahnbrechende Arbeit von Ethics & Society zu schätzen, die uns auf unserer kontinuierlichen verantwortungsvollen KI-Reise geholfen hat.“
Die Mitarbeiter sagten jedoch, das Ethik- und Gesellschaftsteam habe eine entscheidende Rolle dabei gespielt, sicherzustellen, dass sich die verantwortungsbewussten KI-Prinzipien des Unternehmens tatsächlich im Design der ausgelieferten Produkte widerspiegeln.
„Unsere Aufgabe war es, … Regeln zu schaffen, wo es keine gab.“
„Die Leute schauten sich die Prinzipien an, die aus dem Büro der verantwortlichen KI kamen, und sagten: ‚Ich weiß nicht, wie das zutrifft’“, sagt ein ehemaliger Mitarbeiter. „Unsere Aufgabe war es, sie aufzuzeigen und Regeln zu schaffen, wo es keine gab.“
In den letzten Jahren hat das Team ein Rollenspiel namens Judgement Call entwickelt, das Designern dabei half, sich potenzielle Schäden vorzustellen, die durch KI entstehen könnten, und sie während der Produktentwicklung zu diskutieren. Es war Teil eines größeren „Werkzeugkasten für verantwortungsvolle Innovation“, die das Team öffentlich gepostet hat.
In jüngerer Zeit hat das Team daran gearbeitet, Risiken zu identifizieren, die sich aus der Einführung der OpenAI-Technologie durch Microsoft in seiner gesamten Produktsuite ergeben.
Das Ethik- und Gesellschaftsteam war 2020 am größten, als es rund 30 Mitarbeiter hatte, darunter Ingenieure, Designer und Philosophen. Im Oktober wurde das Team im Zuge einer Reorganisation auf rund sieben Personen verkleinert.
Bei einem Treffen mit dem Team nach der Umstrukturierung sagte John Montgomery, Corporate Vice President von AI, den Mitarbeitern, dass die Unternehmensführung sie angewiesen habe, schnell vorzugehen. „Der Druck von (CTO) Kevin (Scott) und (CEO) Satya (Nadella) ist sehr, sehr groß, diese neuesten OpenAI-Modelle und die, die danach kommen, mit sehr hoher Geschwindigkeit in die Hände der Kunden zu bringen, “, sagte er laut dem von Platformer erhaltenen Audio des Treffens.
Aufgrund dieses Drucks, sagte Montgomery, würde ein Großteil des Teams in andere Bereiche der Organisation versetzt.
Einige Mitglieder des Teams drängten zurück. „Ich werde so mutig sein, Sie zu bitten, diese Entscheidung zu überdenken“, sagte ein Mitarbeiter bei dem Anruf. „Obwohl ich verstehe, dass geschäftliche Probleme eine Rolle spielen … war dieses Team immer sehr besorgt darüber, wie wir die Gesellschaft beeinflussen und welche negativen Auswirkungen wir hatten. Und sie sind bedeutsam.“
Montgomery lehnte ab. „Kann ich es mir nochmal überlegen? Ich glaube nicht, dass ich das tun werde“, sagte er. „Denn leider bleibt der Druck gleich. Sie haben nicht die Ansicht, die ich habe, und wahrscheinlich können Sie dafür dankbar sein. Es wird eine Menge Zeug in die Wurst gemahlen.“
Als Antwort auf Fragen sagte Montgomery jedoch, dass das Team nicht eliminiert werden würde.
„Es ist nicht so, dass es verschwindet – es ist, dass es sich entwickelt“, sagte er. „Es entwickelt sich dahingehend, mehr Energie in die einzelnen Produktteams zu stecken, die die Dienste und die Software entwickeln, was bedeutet, dass der zentrale Knotenpunkt, der einen Teil der Arbeit erledigt hat, seine Fähigkeiten und Verantwortlichkeiten überträgt.“
Die meisten Mitglieder des Teams wurden innerhalb von Microsoft an einen anderen Ort versetzt. Danach sagten die verbleibenden Mitglieder des Ethik- und Gesellschaftsteams, dass die kleinere Besatzung es schwierig machte, ihre ehrgeizigen Pläne umzusetzen.
Der Schritt hinterlässt eine grundlegende Lücke für das ganzheitliche Design von KI-Produkten, sagt ein Mitarbeiter
Etwa fünf Monate später, am 6. März, wurde den verbleibenden Mitarbeitern gesagt, sie sollten um 11:30 Uhr PT an einem Zoom-Call teilnehmen, um ein „geschäftskritisches Update“ von Montgomery zu hören. Während des Treffens wurde ihnen gesagt, dass ihr Team doch eliminiert würde.
Ein Mitarbeiter sagt, dass der Umzug eine grundlegende Lücke in Bezug auf die Benutzererfahrung und das ganzheitliche Design von KI-Produkten hinterlässt. „Das Schlimmste ist, dass wir damit das Geschäft und Menschen Risiken ausgesetzt haben“, erklärten sie.
Der Konflikt unterstreicht eine anhaltende Spannung für Technologiegiganten, die Abteilungen aufbauen, die sich dafür einsetzen, ihre Produkte sozial verantwortlicher zu machen. Im besten Fall helfen sie Produktteams, potenziellen Missbrauch von Technologie zu antizipieren und alle Probleme zu beheben, bevor sie ausgeliefert werden.
Aber sie haben auch die Aufgabe, innerhalb von Organisationen, die es oft nicht hören wollen, „nein“ oder „langsam“ zu sagen – oder Risiken aufzuzeigen, die dem Unternehmen rechtliche Kopfschmerzen bereiten könnten, wenn sie in der Rechtsermittlung auftauchen. Und die daraus resultierende Reibung kocht manchmal in die Öffentlichkeit über.
Im Jahr 2020 Google feuerte den ethischen KI-Forscher Timnit Gebru nachdem sie einen Artikel veröffentlicht hatte, in dem sie die großen Sprachmodelle kritisierte und der zwei Jahre später explodierte. Der daraus resultierende Furor führte zu die Abgänge mehrerer weiterer Top-Führungskräfte innerhalb der Abteilungund verringerte die Glaubwürdigkeit des Unternehmens in Fragen der verantwortungsvollen KI.
Microsoft konzentrierte sich darauf, KI-Tools schneller als seine Konkurrenten zu liefern
Mitglieder des Ethik- und Gesellschaftsteams sagten, sie versuchten im Allgemeinen, die Produktentwicklung zu unterstützen. Aber sie sagten, dass, als Microsoft sich schneller als seine Konkurrenten auf die Auslieferung von KI-Tools konzentrierte, die Führung des Unternehmens weniger an der Art des langfristigen Denkens interessiert war, auf die sich das Team spezialisiert hatte.
Es ist eine Dynamik, die einer genauen Prüfung bedarf. Auf der einen Seite hat Microsoft jetzt möglicherweise die einmalige Chance, sich in den Bereichen Suche, Produktivitätssoftware, Cloud Computing und anderen Bereichen, in denen die Giganten konkurrieren, deutlich gegen Google durchzusetzen. Als es Bing mit KI neu auflegte, teilte das Unternehmen den Investoren dies mit Jedes Prozent des Marktanteils, das es Google bei der Suche wegnehmen könnte, würde zu einem Jahresumsatz von 2 Milliarden US-Dollar führen.
Dieses Potenzial erklärt, warum Microsoft bisher hat investierte 11 Milliarden US-Dollar in OpenAI, und arbeitet derzeit daran, die Technologie des Startups in jeden Winkel seines Imperiums zu integrieren. Es scheint einen ersten Erfolg zu haben: Das Unternehmen sagte letzte Woche, Bing habe jetzt täglich 100 Millionen aktive Benutzer, von denen ein Drittel neu seit dem Relaunch der Suchmaschine mit der Technologie von OpenAI ist.
Andererseits sind sich alle an der Entwicklung von KI Beteiligten einig, dass die Technologie sowohl bekannte als auch unbekannte potente und möglicherweise existenzielle Risiken birgt. Tech-Giganten haben sich Mühe gegeben, zu signalisieren, dass sie diese Risiken ernst nehmen – Microsoft allein hat dies getan drei verschiedene Gruppen an dem Thema arbeiten, auch nach der Auflösung des Ethik- und Gesellschaftsteams. Aber angesichts der Einsätze erscheinen alle Kürzungen bei Teams, die sich auf verantwortungsvolle Arbeit konzentrieren, bemerkenswert.
Die Eliminierung des Ethik- und Gesellschaftsteams erfolgte gerade, als sich die verbleibenden Mitarbeiter der Gruppe auf ihre bisher wohl größte Herausforderung konzentriert hatten: die Vorwegnahme dessen, was passieren würde, wenn Microsoft Tools mit OpenAI für ein globales Publikum herausbringen würde.
Letztes Jahr schrieb das Team ein Memo, in dem die damit verbundenen Markenrisiken detailliert beschrieben wurden Bing Image Creator, das das DALL-E-System von OpenAI verwendet, um Bilder basierend auf Texteingabeaufforderungen zu erstellen. Das Bildwerkzeug im Oktober in einer Handvoll Ländern eingeführtwas es zu einer der ersten öffentlichen Kooperationen von Microsoft mit OpenAI macht.
Während sich die Text-to-Image-Technologie als äußerst beliebt erwiesen hat, haben Microsoft-Forscher richtigerweise vorausgesagt, dass sie auch die Existenzgrundlage von Künstlern bedrohen könnte, da sie es jedem ermöglicht, ihren Stil einfach zu kopieren.
„Beim Testen von Bing Image Creator wurde festgestellt, dass mit einer einfachen Eingabeaufforderung, die nur den Namen des Künstlers und ein Medium (Malerei, Druck, Fotografie oder Skulptur) enthielt, generierte Bilder fast unmöglich von den Originalwerken zu unterscheiden waren“, schrieben die Forscher die Notiz.
„Das Risiko eines Markenschadens … ist real und erheblich genug, um Wiedergutmachung zu verlangen.“
Sie fügten hinzu: „Das Risiko eines Markenschadens sowohl für den Künstler als auch für seine finanziellen Interessengruppen und die negative PR für Microsoft, die sich aus den Beschwerden der Künstler und der negativen öffentlichen Reaktion ergibt, ist real und erheblich genug, um Wiedergutmachung zu verlangen, bevor die Marke von Microsoft geschädigt wird.“
Darüber hinaus hat OpenAI letztes Jahr seine Nutzungsbedingungen aktualisiert, um Benutzern „volle Eigentumsrechte an den Bildern zu geben, die Sie mit DALL-E erstellen“. Der Schritt machte das Ethik- und Gesellschaftsteam von Microsoft besorgt.
„Wenn ein KI-Bildgenerator Bilder von Werken mathematisch repliziert, ist es ethisch verdächtig, darauf hinzuweisen, dass die Person, die die Eingabeaufforderung eingereicht hat, die vollen Eigentumsrechte an dem resultierenden Bild hat“, schrieben sie in dem Memo.
Microsoft-Forscher erstellten eine Liste von Minderungsstrategien, darunter das Blockieren von Bing Image Creator-Benutzern daran, die Namen lebender Künstler als Eingabeaufforderungen zu verwenden, und das Erstellen eines Marktplatzes zum Verkauf der Werke eines Künstlers, der auftauchte, wenn jemand nach seinem Namen suchte.
Mitarbeiter sagen, dass keine dieser Strategien umgesetzt wurde, und Bing Image Creator wurde trotzdem in Testländern eingeführt.
Microsoft sagt, dass das Tool vor dem Start modifiziert wurde, um Bedenken auszuräumen, die im Dokument geäußert wurden, und zusätzliche Arbeit von seinem zuständigen KI-Team veranlasste.
Doch rechtliche Fragen zu der Technologie bleiben ungeklärt. Im Februar 2023 reichte Getty Images eine Klage gegen Stability AI, Hersteller des KI-Kunstgenerators Stable Diffusion, ein. Getty beschuldigte das KI-Startup, mehr als 12 Millionen Bilder missbräuchlich zum Trainieren seines Systems verwendet zu haben.
Die Anschuldigungen spiegeln Bedenken wider, die von Microsofts eigenen KI-Ethikern geäußert wurden. „Es ist wahrscheinlich, dass nur wenige Künstler zugestimmt haben, dass ihre Werke als Trainingsdaten verwendet werden, und wahrscheinlich wissen viele noch nicht, wie die generative Technologie es ermöglicht, innerhalb von Sekunden Variationen von Online-Bildern ihrer Arbeit zu erstellen“, schrieben Mitarbeiter im vergangenen Jahr.