1)Araştırma Hedefi: Yapay Zeka araştırmasının hedefi güdümsüz zeka üretmek değil faydalı zeka üretmektir.2)Araştırma Fonu: Yapay Zekaya yapılan yatırımlar, aşağıdaki gibi bilgisayar bilimleri, ekonomi, hukuk, etik ve sosyal araştırmalarda sıkça sorulan sıkıntılı sorular da dahil olmak üzere yararlı kullanımını sağlamaya yönelik araştırmalar için fon sağlamalıdır.

Gelecekteki Yapay Zeka sistemlerini, herhangi bir hata vermeden ya da hacklenmeden istediğimiz şeyleri yaptırmak için nasıl çok sağlam hale getirebiliriz?

İnsanların kaynaklarını ve amaçlarını sürdürürken, refahımızı otomasyon aracılığıyla nasıl büyütebiliriz?

Daha adil ve etkili olmaları, Yapay Zeka ayak uydurmak ve Yapay Zeka ile ilişkili riskleri yönetmek için hukuk  sistemlerimizi nasıl güncelleyebiliriz?

Yapay Zeka ne tür değerlere göre düzenlenmiş olmalı ve ne tür yasal ve ahlaksal\etik duruma sahip olmalıdır (Yapay Zeka) ?

3) Bilim-Politika Bağlantısı: Yapay Zeka araştırmacıları ve politika oluşturucuları arasında sağlıklı ve yapıcı bir değişim olmalıdır.

4). Araştırma kültürü: Yapay Zeka araştırmacıları ve geliştiricileri arasında bir beraberlik, yardımlaşma, dayanışma güven ve şeffaflık kültürü mevcut olmalıdır

5) Yarıştan Kaçınma: Güvenlik standartlarının ucuz yoldan ya da kısa yoldan halledilmesinden sakınmak için Yapay Zeka sistemlerini geliştiren ekipler aktif bir işbirliği içinde bulunmalıdırlar.

6) Güvenlik: Yapay Zeka sistemleri işletim\çalışma süreleri boyunca güvenli ve emniyetli ve bu yüzden onaylanarak uygulanabilir olmalıdır.

7) Arıza Şeffaflığı: Eğer herhangi bir Yapay Zeka sistemi bir zarara yol açarsa, arıza ardından yatan sebebi meydana çıkarmak mümkün olmalıdır.

8) Yargısal Şeffaflık: Yargısal karar alma sürecinde otonom bir sistemin dahil olması, yetkili insan makamı tarafından denetlenebilir tatmin edici bir açıklama temin etmelidir.

9) Yükümlülük: Yapay Zeka sistemlerinin tasarımcıları ve oluşturucuları, sistemlerin etik olarak kullanımları, kötüye kullanımları konusunda bu olası sonuçları şekillendirme yükümlülüğü ve fırsatı açısından eşdeğerdir.

10) Değer Ayarı: Yüksek derecede otonom olan Yapay Zeka sistemleri, hedefleri ve davranışlarının sistemlerin işletimleri aracılığıyla insan değerleri ile aynı eksene getirilebilmeleri için tasarlanmalıdır.

11) İnsanı Değerler: Yapay Zeka sistemleri, insan itibarı, haysiyeti, hakları, özgürlükleri ve kültürel çeşitliliğiyle uyumlu olacak şekilde tasarlanmalı ve işletilmelidir.

12). Kişisel Gizlilik: Yapay Zeka sistemlerinin verileri analiz etme ve kullanma gücü verildikten sonra, insanlar ürettikleri verilere erişme, bu verileri yönetme ve kontrol etme hakkına sahip olmalıdırlar.

13) Özgürlük ve Mahremiyet: Yapay Zekanın kişisel bilgilere uygulanması, makul olmayan sebeplerle insanların gerçek ya da algılanan özgürlüklerini engellememeli ya da kısaltmamalıdır.

14) Ortak Çıkar: Yapay Zeka teknolojileri mümkün olduğu kadar çok sayıda insana fayda sağlamalı ve güçlendirmelidir.

15) Ortak Refah: Yapay Zeka tarafından oluşturulan ekonomik refah, bütün insanlığa fayda sağlamak için kapsamlı bir şekilde paylaşılmalıdır.

16) İnsan Kontrolü: İnsanlar tarafından seçilen hedeflere ulaşmak amacıyla, Yapay Zeka sistemlerine karar yetkisi verilip verilmemesi gerektiğini ya da nasıl verilmesi gerektiğini insanlar seçmelidir.

17) Düzeni Bozmama: Son derece gelişmiş Yapay Zeka sistemlerinin kontrolünün sağladığı güç, toplum sağlığının dayandığı sosyal ve sivil süreçlerin düzenini bozmaktan ziyade bunlara saygı göstermek ve geliştirmek durumundadır.

18) Yapay Zeka Silahları Yarışı: Ölümcül otonom silahlar konusunda çıkacak olan silahlanma yarışından kaçınılmalıdır.

19) Yetenek İhtiyatı: Herhangi bir fikir birliği olmaması durumunda, gelecekteki Yapay Zeka yetenekleri konusunda üst sınırlar ile ilgili güçlü varsayımlardan kaçınmalıyız.

20) Önem: Gelişmiş Yapay Zeka, Dünya’daki yaşam tarihinde geniş çaplı bir değişikliği temsil edebilir ve orantılı bakım ve kaynaklar ile planlanmalı ve yönetilmelidir.

21) Riskler: Yapay Zeka sistemleri tarafından oluşturulan riskler, özellikle de felaket veya varoluşsal riskler, beklenen etkileri ile orantılı olarak planlama ve azaltma çabalarına tabi olmalıdır.

22) Tekrarlı Kendini Geliştirme: Hızla artan kalite veya miktara yol açabilecek şekilde tekrarlı geliştirme veya kendi kendini yenileme üzere tasarlanmış Yapay Zeka sistemleri sıkı güvenlik ve kontrol önlemlerine tabi tutulmalıdır.

23) Amme Menfaati: Süper zekâ, bir devlet veya kuruluştan ziyade ancak yaygın olarak paylaşılan etik ideallerin hizmetinde ve tüm insanlığın menfaati için geliştirilmelidir