Hinter den Claude-Modellen stellt Anthropic das Anthropic Institute vor. Die Mission dieser Initiative besteht darin, „ Wir stellen uns den größten Herausforderungen, die leistungsstarke KI für unsere Gesellschaften mit sich bringen wird „.

Durch die Zusammenführung von Forschungsteams

Das Anthropic Institute vereint drei bestehende Forschungsteams : das Frontier Red Team, das die Grenzen von KI-Systemen testet, das Societal Impacts Team, das ihren Einsatz in der realen Welt untersucht, und das Economic Research Team, das ihre Auswirkungen auf die Beschäftigung analysiert.

Unter der Leitung von Mitbegründer Jack Clark, der eine neue Rolle als Head of Public Benefit bei Anthropic übernimmt, wird das Institut von einem „ einzigartiger Standpunkt „, Zugang zu Informationen haben, die“ Das haben nur führende KI-Systembauer „.

Um sein Fachwissen zu stärken, hat Anthropic Persönlichkeiten wie Matt Botvinick von Google DeepMind rekrutiert, und Jack Clark weist darauf hin, dass die jüngste Situation die Entscheidung, mehr Informationen weiterzugeben, bestätigt habe mit der Öffentlichkeit.

In einem aufgeladenen politischen Kontext für Anthropic

Die Gründung des Anthropic Institute fällt mit einer Erweiterung des Public-Policy-Teams von Anthropic zusammen, das in diesem Frühjahr sein erstes Büro in Washington eröffnen wird.

Dieses Team wird sich auf Modellsicherheit, Transparenz und demokratische Führung in der KI konzentrieren, da das Unternehmen vom Pentagon auf der schwarzen Liste steht.

Die Sicherheitsinvestition wird als Strategie gesehen, Anthropic auch angesichts der Feindseligkeit der Trump-Regierung als vertrauenswürdigen Akteur zu positionieren.

Kommt die Aussicht auf eine allgemeine KI näher?

Indem Anthropic eine Haltung der Transparenz und Ethik einnimmt, auch wenn das Risiko besteht, dass es zu Reibungen kommt, setzt Anthropic auf die Langfristigkeit. Jack Clark schätzt weiter, dass sehr leistungsfähige KI bis Ende dieses Jahres oder Anfang 2027 auf den Markt kommen könnte.