Geçen ayki yazıda FLI’nın (Yaşamın Geleceği Enstitüsü – Future of Life Institute), 22 Mart’ta yayımladığı “Dev Yapay Zeka Deneylerini Duraklatın” başlıklı açık mektubundan bahsetmiştim. FLI, güçlü YZ (yapay zekâ) sistemlerinin geliştirilmesine devam etmeden önce risklerin yönetilebilirliğinden emin olunması gerektiğini savunuyordu. 30 Mayıs’ta da CAIS’in (Center for AI Safety – Yapay Zeka Güvenliği Merkezi) web sitesinde dünyanın önde gelen YZ araştırmacılarının yanında başka disiplinlerden akademisyenlerin ve Microsoft, Google, OpenAI gibi şirketlerinin yöneticilerinin imzaladığı kısa bir bildiri yayımlandı. Bir tartışma başlatmayı hedefleyen bildiride şöyle yazıyordu (https://www.safe.ai/statement-on-ai-risk):
Yapay zekâ kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır.