Yapay zeka halüsinasyonları olarak isimlendirilen “yapay zeka palavraları ya da zekanın kendi çıkarımları” birçok kişinin farklı yönlendirilmesini sağlıyordu.
OpenAI, Çarşamba günü yaptığı açıklamada, yapay zeka modellerini eğitmek için daha yeni bir usulle yapay zeka “halüsinasyonlarına” karşı uğraş edeceğini duyurdu.
ETKİSİ SÜRATLE BÜYÜYOR
OpenAI, geçen yıl GPT-3 ve GPT-4 tarafından desteklenen sohbet robotu ChatGPT’yi piyasaya sürdüğünde üretken yapay zeka patlamasını hızlandırdı ve iki ay içinde aylık 100 milyon kullanıcıyı aşarak en süratli büyüyen uygulama rekorunu kırdığı bildirildi.
Söz konusu teknoloji için bugüne kadar Microsoft, OpenAI’ye 13 milyar dolardan fazla yatırım yapmıştı.
YAPAY ZEKANIN PALAVRALARINI EN AZA İNDİRMEYE ÇALIŞACAKLAR
OpenAI tarafından geliştirilen ChatGPT yahut Google Bard üzere modeller kullanıldığında yapay zeka halüsinasyonlarının ortaya çıkmasına neden oluyor.
Buna bir örnek: Google’ın Bard için Şubat ayında yayınladığı tanıtım görüntüsünde, chatbot James Webb Uzay Teleskobu hakkında gerçek dışı bir argümanda bulunmuştu. Daha yakın bir vakitte ChatGPT, New York federal mahkemesine yaptığı bir müracaatta “sahte vakalardan” bahsetmişti.
OpenAI araştırmacıları raporda “En gelişmiş modeller bile yanlışlar üretmeye eğilimlidir ve belirsizlik anlarında gerçekleri icat etme eğilimi gösterirler” diye yazdı.
Ayrıca araştırmacılar “Bu halüsinasyonlar çok adımlı muhakeme gerektiren alanlarda bilhassa problemlidir zira tek bir mantıksal yanılgı çok daha büyük bir tahlili raydan çıkarmak için kafidir.” sözlerine yer verdiler.
İNSANLAR ÜZERE DÜŞÜNEN MODELLER GELİŞTİRİLECEK
OpenAI’nin uydurmalarla çaba için potansiyel yeni stratejisi, yapay zeka modellerini, bir karşılığa ulaşırken yalnızca hakikat bir son sonucu ödüllendirmek yerine, her bir yanlışsız akıl yürütme adımı için kendilerini ödüllendirecek biçimde eğitmek olarak görülüyor.
Araştırmacılara nazaran bu yaklaşım “sonuç denetimi”nin aksine “süreç denetimi” olarak isimlendiriliyor ve modelleri “insan gibisi bir düşünce” yaklaşımını takip etmeye teşvik ediyor.
TESTLER OLUMLU SONUÇ VERDİ
Sonuç kontrolü ile OpenAI, yapay zekanın verdiği son sonuç hakkında geri bildirim sağlamak için ödül modellerini eğitecek. Süreç kontrolü ile, ödül modeli yolun her adımında geri bildirim sağlayarak insan gibisi bir niyet zinciri oluşturacak.
OpenAI, araştırma makalesinde her iki modeli de bir matematik data seti üzerinde test ettiğini ve süreç kontrolü sisteminin “önemli ölçüde daha yeterli performans” sağladığını tespit etti.
SÜREÇ KONTROLÜNÜN MUHTEMEL SONUÇLARINDAN BAHSETTİ
Süreç kontrolü sisteminin mümkün sonuçlarını açıklayan OpenAI şunları söyledi:
“Bu sonuçlar genelleşirse, süreç kontrolünün bize her iki dünyanın da en uygununu sunduğunu görebiliriz. Sonuç kontrolünden hem daha performanslı hem de daha uyumlu bir formül.”
Ayrıca OpenAI, halka açık olan ChatGPT’de süreç kontrolünün uygulanmasının ne kadar süreceği konusunda bir vakit çizelgesi vermedi.