Die KI-Regulierung ist ein heißes Thema, da die Popularität und Zahl der KI-Entwicklungen von Tag zu Tag zunimmt. Regierungsbeamte, Technologieführer und besorgte Bürger haben alle zum Handeln aufgerufen.
Jetzt beteiligt sich OpenAI, ein wichtiger Akteur im KI-Bereich, das Unternehmen hinter dem äußerst beliebten ChatGPT, an der Diskussion.
In einem Blogeintrag Mit dem Titel „Governance of Superintelligence“ diskutieren OpenAI-CEO Sam Altman, Präsident und Mitbegründer Greg Brockman und Mitbegründer und Chefwissenschaftler von OpenAI Ilya Sutskever darüber, wie wichtig es ist, jetzt eine KI-Regulierung einzuführen, bevor es zu spät ist.
„Angesichts der Möglichkeit eines existenziellen Risikos können wir nicht einfach reagieren“, sagten OpenAI-Führungskräfte in dem Blogbeitrag. „Kernenergie ist ein häufig verwendetes historisches Beispiel für eine Technologie mit dieser Eigenschaft; synthetische Biologie ist ein weiteres Beispiel.“
Der Blogbeitrag skizziert drei verschiedene Vorgehensweisen, die als guter Ausgangspunkt für die KI-Regulierung dienen könnten.
Erstens fordert der Beitrag die Einrichtung einer Art Koordinierungsstelle, die sich auf die Sicherheit und reibungslose Integration von KI-Technologien in die Gesellschaft konzentriert.
Beispiele könnten sein, dass große Regierungen weltweit an einem Projekt zusammenarbeiten, in das aktuelle Bemühungen eingebunden werden könnten, oder eine Organisation zu gründen, die sich auf die KI-Entwicklung konzentriert und die jährliche Wachstumsrate der KI-Fähigkeiten einschränkt, heißt es in dem Beitrag.
Die zweite Idee, die OpenAI teilte, war die Notwendigkeit einer internationalen Organisation wie der Internationalen Atomenergiebehörde für KI- oder „Superintelligenz“-Bemühungen.
Eine solche Organisation hätte die Befugnis, Systeme zu inspizieren, Audits zu verlangen, die Einhaltung von Sicherheitsstandards zu testen und vieles mehr, um eine sichere und verantwortungsvolle Entwicklung von KI-Modellen zu gewährleisten.
In den Beiträgen wird als erster Schritt vorgeschlagen, dass Unternehmen mit der Umsetzung von Vorschriften beginnen könnten, die eine internationale Agentur tun würde, und dass auch Länder mit der Umsetzung dieser Standards beginnen könnten.
Abschließend heißt es in dem Beitrag, dass eine technische Fähigkeit erforderlich sei, um Superintelligenz sicher zu machen, aber es handele sich um eine offene Forschungsfrage, mit der sich viele Menschen befassen.
OpenAI sagt außerdem, dass es wichtig sei, Unternehmen und Open-Source-Projekten die Entwicklung von KI-Modellen unterhalb einer festgelegten Fähigkeitsschwelle zu ermöglichen, ohne „lästige Mechanismen wie Lizenzen oder Audits“, heißt es in dem Beitrag.
Dieser Beitrag erscheint eine Woche, nachdem Altman bei einer Anhörung des Justizausschusses des Senats ausgesagt hat, in der es um Risiken und die Zukunft der KI ging.