Den amerikanska AI-företaget Anthropic anställer enligt BBC en expert på kemiska vapen och sprängämnen för att minska risken att dess AI-system används för farliga ändamål. Rollen syftar till att utveckla skyddsmekanismer för att förhindra att AI ger instruktioner om tillverkning av kemiska vapen eller radiologiska 'smutsbomber'. Anthropic har tidigare rekryterat experter inom andra känsliga områden för liknande arbete.
Konkurrenten OpenAI söker också forskare för att analysera biologiska och kemiska risker kopplade till AI-modeller för att förhindra att teknologin utnyttjas för skadliga syften. För närvarande saknas internationella regleringar inom detta område.