OpenAI, İngiliz Lordlar Kamarası'na verdiği yanıtta, The Guardian'ın, AI sistemlerinin yayınlanmadan önce kırmızı takımlardaki bağımsız uzmanlar tarafından kontrol edilmesini istediğini yazdığını söylüyor. Bunlar, kötü niyetli tarafların serbest bırakıldıktan sonra yapacağı gibi, sistemleri kırmaya çalışan güvenlik uzmanlarından oluşan ekiplerdir. "Güvenlik kurallarımızın bağımsız uzmanlar tarafından harici olarak doğrulanmasının ve uygun önlemleri alabilmemiz için kararlarımızın en azından kısmen bağımsız güvenlik ve risk değerlendirmelerine dayanmasının önemli olduğuna inanıyoruz."
gelişebilir."
Kırmızı ekip oluşturma şu anda yalnızca şirket içinde gerçekleşiyor ancak birçok ülkede hükümetler yapay zeka sistemlerini nasıl düzenlemek istediklerini düşünüyor. OpenAI, şirketin yapay zekanın insanlık için bir tehdit olabileceği riskini ne kadar büyük tahmin ettiği sorusuna doğrudan cevap vermiyor. "Bu modellerin yetenekleri daha karmaşık hale geldikçe, özellikle kötü niyetli bir aktör tarafından yönlendirilmeleri veya modelin insani değerlerle iyi bir şekilde uyumlu olmaması durumunda, oluşturabilecekleri risklerin kapsamı ve ciddiyeti de artıyor. potansiyel olarak tehlikeli yetenekler, riski etkili bir şekilde değerlendirmek ve yönetmek için gereklidir. Bunu, basit, ölçeklenebilir ve otomatikleştirilmiş araçlardan, insan uzmanlar tarafından gerçekleştirilen özelleştirilmiş, yoğun değerlendirmelere kadar uzanan, potansiyel olarak tehlikeli yeteneklere yönelik değerlendirmeleri araştırıp geliştirerek ele alıyoruz."
OpenAI ayrıca belgede büyük dil modellerinin eğitiminin telif hakkıyla korunan materyallerin kullanılmasını gerektirdiğini de söylüyor. "Eğitim verilerini bir asırdan fazla süre önce oluşturulmuş kamuya açık kitaplar ve çizimlerle sınırlamak ilginç bir deneye yol açabilir, ancak günümüz vatandaşlarının ihtiyaçlarını karşılayan yapay zeka sistemleri üretmez."