
Jede Kategorie einer künstlichen Intelligenz (KI) wird einer von vier Risikostufen von "niedrig" bis "kritisch" zugeordnet. Als Beispiel für einen kritischen Grad von Autonomie wird etwa ein KI-Modell genannt, das eigenständig KI-Forschung betreiben und damit "einen unkontrollierbaren Prozess der Selbstverbesserung" auslösen könnte - eine sogenannte "Intelligenzexplosion".
OpenAI zufolge sollen nur solche KI-Modelle eingesetzt werden dürfen, deren Risiko nach der Umsetzung von Sicherheitsmaßnahmen höchstens die zweihöchste Stufe "mittel" erreicht. Zudem dürften nur solche Modelle weiterentwickelt werden, bei denen kein als "kritisch" eingestuftes Risiko festgestellt worden ist. Teil des Sicherheitskonzepts sind verschiedene Gruppen zur Überwachung und Beratung. Das Board soll dabei Entscheidungen der Konzernführung kippen dürfen.
Der Microsoft-Partner OpenAI hatte vor gut einem Jahr mit seiner KI-Chatbot-Software ChatGPT das Interesse der Öffentlichkeit auf die jüngsten Durchbrüche bei der generativen künstlichen Intelligenz gelenkt. Forscher zeigen sich jedoch besorgt über potenzielle Gefahren der Technologie.