Wie plant ein ehemaliger OpenAI-Policy-Chef, KI-Sicherheitsprüfungen zu reformieren?

Wie plant ein ehemaliger OpenAI-Policy-Chef, KI-Sicherheitsprüfungen zu reformieren?

Miles Brundage, der sieben Jahre lang die Policy-Forschung bei OpenAI leitete, setzt sich mit seinem neu gegründeten Institut AVERI für externe Audits führender KI-Modelle ein. Er vertritt die Auffassung, dass die Branche ihre eigenen Standards nicht mehr selbst bewerten sollte.

Das AI Verification and Evaluation Research Institute (AVERI) ist eine gemeinnützige Organisation, die sich auf unabhängige Sicherheitsprüfungen von Frontier-KI-Modellen konzentriert. Brundage verließ OpenAI im Oktober 2024, nachdem er als Berater für den Umgang mit künstlicher allgemeiner Intelligenz tätig war.

„Eine der Lektionen, die ich bei OpenAI gelernt habe, ist, dass Unternehmen oft selbst die Normen für derartige Angelegenheiten festlegen“, erklärte Brundage im Gespräch. „Es gibt keine Verpflichtung, mit Drittexperten zusammenzuarbeiten. Sie entwerfen quasi ihre eigenen Regeln.“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like