OpenAI’nin başkanları, “süper zeka” ve yapay zeka sistemlerinin düzenlenmesi davetinde bulunarak, teknolojinin oluşturduğu “varoluşsal riski” azaltmaya yardımcı olacağını öne sürüyorlar.
Şirketin web sitesinde bu hafta yayınlanan bir açıklamada, kurucu ortaklar Greg Brockman ve Ilya Sutskever ile CEO Sam Altman, memleketler arası bir düzenleyicinin eninde sonunda “sistemleri denetlemek, kontroller talep etmek, güvenlik standartlarına uygunluğu test etmek ve dağıtım derecelerine ve güvenlik düzeylerine kısıtlamalar getirmek” için gerekli olacağını savundu.
“RİSKİ YÖNETMEK ZORUNDAYIZ”
OpenAI grubu, “önümüzdeki on yıl içinde yapay zeka sistemlerinin birden fazla alanda uzman marifet seviyesini aşacağı ve günümüzün en büyük şirketlerinden biri kadar üretken faaliyet yürüteceği düşünülebilir.
Hem potansiyel artıları hem de eksileri açısından harika zeka, insanlığın geçmişte uğraş etmek zorunda kaldığı başka teknolojilerden daha güçlü olacaktır. Çok daha müreffeh bir geleceğe sahip olabiliriz; fakat oraya ulaşmak için riski yönetmek zorundayız.”
Açıklama, Altman’ın geçen hafta Kongre’de yaptığı ve ABD merkezli şirketin CEO’sunun da farklı bir düzenleyici kuruma duyulan muhtaçlığı tabir ettiği yorumları yineledi.
ELEŞTİRMENLER ÖNDERLERİN ÇAĞIRISINA GÜVENİLMEMESİ KONUSUNDA UYARDI
Eleştirmenler, teknoloji sanayisinde kısıtlama olmaksızın gelişmeye devam ederek kâr elde eden önderlerin düzenleme davetlerine güvenilmemesi konusunda ikazda bulundular.
Bazıları tarafından, OpenAI’nin iş kararlarının bu güvenlik ikazlarıyla çeliştiğini söylüyor. Zira süratli bir formda piyasaya sürülmeleri bir yapay zeka silahlanma yarışı oluşturduğunu ve Google’ın ana şirketi Alphabet üzere şirketlere, siyaset yapıcılar hala risklerle boğuşurken eserleri piyasaya sürmeleri için baskı yaptığı hatırlatıldı.