, das für die Kontrolle und Überwachung einer zukünftigen Künstlichen Allgemeinen Intelligenz verantwortlich war, wurde aufgelöst. Die Aufgaben des Teams, die lautimmer häufiger torpediert wurden, wird nun auf andere Abteilungen verteilt. Ein festes Team, das sich um die Sicherheit einer AGI kümmert, gibt es mehreren Berichten zufolge beim ChatGPT-Entwickler nicht länger.
"In den letzten Monaten ist mein Team gegen Wind gesegelt", schreibt Leike auf X . Seinem Team stünden20 Prozent der Computerressourcen verpflichtend zu, um sicherzustellen, dass sich die KI an den Interessen der Menschen orientiert, auch wenn sie exponentiell leistungsfähiger wird.
Das nun nicht mehr existente Superalignement-Team wurde dem Bericht zufolge im Juli des vergangenen Jahres gegründet. Vor dem Ausscheiden der beiden leitenden Wissenschaftler hätten bereits mindestens sechs weitere Forscher das Team seit November vergangenen Jahres verlassen – die zuvor im Alignement-Team gearbeitet hätten, aus dem das Superalignement-Team entstanden ist,
Die Risikoforschung zu leistungsfähigeren KI-Modellen werde zukünftig von Jon Schulman geleitet, der das für die Feinabstimmung von KI-Modellen nach dem Training zuständige Team bei OpenAI leitet. Das Superalignement-Team sei Wired zufolge auch nicht das einzige Team, das sich mit KI-Kontrolle beschäftigt habe.
Gefahren Ilyas Sutskever Jan Leike KI-Regulierung Kontrolle Künstliche Intelligenz Openai Superintelligenz
Deutschland Neuesten Nachrichten, Deutschland Schlagzeilen
Similar News:Sie können auch ähnliche Nachrichten wie diese lesen, die wir aus anderen Nachrichtenquellen gesammelt haben.
Herkunft: FN_Nachrichten - 🏆 88. / 53 Weiterlesen »
Herkunft: sternde - 🏆 31. / 63 Weiterlesen »
Herkunft: heiseonline - 🏆 11. / 71 Weiterlesen »
Herkunft: focusonline - 🏆 6. / 82 Weiterlesen »
Herkunft: MeinMMO - 🏆 1. / 99 Weiterlesen »
Herkunft: AZ_Augsburg - 🏆 14. / 69 Weiterlesen »