Yayınlanan açık mektupta, yapay zekâ alanındaki mevcut yarış dinamiğinin tehlikeli olduğu belirtiliyor ve gelecekteki sistemlerin güvenli bir şekilde kullanılmasını sağlamak üzere bağımsız düzenleyici kurumların oluşturulması çağrısında bulunuluyor.
Elon Musk’ın da aralarında bulunduğu bir dizi tanınmış yapay zeka araştırmacısı, dünyanın dört bir yanındaki yapay zeka laboratuvarlarını büyük ölçekli yapay zeka sistemlerinin geliştirilmesini durdurmaya çağıran açık bir mektuba imza atarak, bu yazılımların “toplum ve insanlık için derin riskler” oluşturduğunu iddia ettiler.
Kâr amacı gütmeyen Future of Life Institute tarafından yayınlanan mektupta, yapay zekâ laboratuvarlarının şu anda “hiç kimsenin hatta yaratıcılarının bile anlayamayacağı, tahmin edemeyeceği veya güvenilir bir şekilde kontrol edemeyeceği” makine öğrenme sistemleri geliştirmek ve dağıtmak için “kontrolden çıkmış bir yarışa” kilitlendiği belirtiliyor.
“Tüm yapay zeka laboratuarlarını GPT-4’ten daha güçlü YZ sistemlerinin eğitimini en az 6 ay süreyle derhal durdurmaya çağırıyoruz.”
“Bu nedenle, tüm YZ laboratuvarlarını GPT-4’ten daha güçlü YZ sistemlerinin eğitimini en az 6 ay süreyle derhal durdurmaya çağırıyoruz. Bu duraklama kamuya açık ve doğrulanabilir olmalı ve tüm kilit aktörleri kapsamalıdır. Böyle bir duraklama hızlı bir şekilde hayata geçirilemezse, hükümetler devreye girmeli ve bir moratoryum başlatmalıdır.”
İmzacılar arasında yazar Yuval Noah Harari, Apple kurucu ortağı Steve Wozniak, Skype kurucu ortağı Jaan Tallinn, politikacı Andrew Yang ve Stuart Russell, Yoshua Bengio, Gary Marcus ve Emad Mostaque gibi tanınmış yapay zeka araştırmacıları ve CEO’ları yer alıyor. İmzacıların tam listesi burada görülebilirsiniz. Ancak yeni isimlerin listeye şaka olarak eklendiğine dair raporlar olduğu için dikkatli olunmalıdır. (örneğin OpenAI CEO’su Sam Altman, YZ’deki mevcut yarış dinamiğinden kısmen sorumlu olan bir kişi).
Mektubun, Google ve Microsoft gibi teknoloji şirketlerinin yeni ürünleri devreye sokmak için acele ettiği ve genellikle güvenlik ve etik konusunda daha önce kabul edilen endişeleri bir kenara bıraktığı yapay zeka araştırmalarındaki mevcut iklim üzerinde herhangi bir etkisi olması pek olası değildir. Ancak bu, “şimdi gönder ve sonra düzelt” yaklaşımına karşı büyüyen muhalefetin bir işareti; gerçek yasa koyucular tarafından değerlendirilmek üzere potansiyel olarak siyasi alana girebilecek bir muhalefet.
Mektupta belirtildiği gibi, OpenAI’nin kendisi bile güvenlik standartlarını karşıladıklarından emin olmak için gelecekteki yapay zeka sistemlerinin “bağımsız olarak incelenmesi” için potansiyel ihtiyacı dile getirmiştir. İmzacılar artık bu zamanın geldiğini söylüyorlar.
“YZ laboratuvarları ve bağımsız uzmanlar bu arayı, gelişmiş YZ tasarımı ve geliştirmesi için bağımsız dış uzmanlar tarafından titizlikle denetlenen ve gözetilen bir dizi ortak güvenlik protokolünü ortaklaşa geliştirmek ve uygulamak için kullanmalıdır. Bu protokoller, kendilerine bağlı sistemlerin makul bir şüphenin ötesinde güvenli olmasını sağlamalıdır.”