Archiv

Künstliche Intelligenz
OpenAI stellt Sicherheitskonzept vor

Der ChatGPT-Hersteller OpenAI hat ein Sicherheitskonzept für seine fortschrittlichsten Modelle künstlicher Intelligenz vorgelegt. Bei der Bewertung des Risikos sollen unterschiedliche Szenarien bedacht werden. Geprüft werden demnach Auswirkungen auf die Cybersicherheit sowie atomare, chemische, biologische oder radiologische Bedrohungen, aber auch Überzeugungskraft und Autonomie des jeweiligen Modells.

    Illustration des KI-Anbieters OpenAI
    Welche Sicherheitsvorkehrungen trifft das Unternehmen OpenAI ? (IMAGO / NurPhoto / IMAGO / CFOTO)
    Jede Kategorie einer künstlichen Intelligenz (KI) wird einer von vier Risikostufen von "niedrig" bis "kritisch" zugeordnet. Als Beispiel für einen kritischen Grad von Autonomie wird etwa ein KI-Modell genannt, das eigenständig KI-Forschung betreiben und damit "einen unkontrollierbaren Prozess der Selbstverbesserung" auslösen könnte - eine sogenannte "Intelligenzexplosion".
    OpenAI zufolge sollen nur solche KI-Modelle eingesetzt werden dürfen, deren Risiko nach der Umsetzung von Sicherheitsmaßnahmen höchstens die zweihöchste Stufe "mittel" erreicht. Zudem dürften nur solche Modelle weiterentwickelt werden, bei denen kein als "kritisch" eingestuftes Risiko festgestellt worden ist. Teil des Sicherheitskonzepts sind verschiedene Gruppen zur Überwachung und Beratung. Das Board soll dabei Entscheidungen der Konzernführung kippen dürfen.
    Der Microsoft-Partner OpenAI hatte vor gut einem Jahr mit seiner KI-Chatbot-Software ChatGPT das Interesse der Öffentlichkeit auf die jüngsten Durchbrüche bei der generativen künstlichen Intelligenz gelenkt. Forscher zeigen sich jedoch besorgt über potenzielle Gefahren der Technologie.