Reed NewsReed News

Anthropic och OpenAI anställer experter för att minska AI-risker inom kemiska och biologiska vapen

Vetenskap & teknikVetenskap
Nyckelpunkter
  • Anthropic anställer en expert på kemiska vapen för att utveckla skydd mot missbruk av AI.
  • OpenAI rekryterar också forskare för att analysera biologiska och kemiska risker från AI-modeller.
  • Båda företagen syftar till att förhindra att AI ger instruktioner för farliga vapen som 'smutsbomber'.

Den amerikanska AI-företaget Anthropic anställer enligt BBC en expert på kemiska vapen och sprängämnen för att minska risken att dess AI-system används för farliga ändamål. Rollen syftar till att utveckla skyddsmekanismer för att förhindra att AI ger instruktioner om tillverkning av kemiska vapen eller radiologiska 'smutsbomber'. Anthropic har tidigare rekryterat experter inom andra känsliga områden för liknande arbete.

Konkurrenten OpenAI söker också forskare för att analysera biologiska och kemiska risker kopplade till AI-modeller för att förhindra att teknologin utnyttjas för skadliga syften. För närvarande saknas internationella regleringar inom detta område.

Transparens

Så verifierade vi denna artikel

LågBaserat på 2 källor
2 källor2 Inblandade