featured

OpenAI itiraf etti… İnsan üzere düşünen yapay zeka üzerinde çalışıyorlar!

Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Yapay zeka halüsinasyonları olarak isimlendirilen “yapay zeka palavraları ya da zekanın kendi çıkarımları” birçok kişinin farklı yönlendirilmesini sağlıyordu.

OpenAI, Çarşamba günü yaptığı açıklamada, yapay zeka modellerini eğitmek için daha yeni bir usulle yapay zeka “halüsinasyonlarına” karşı uğraş edeceğini duyurdu. 

ETKİSİ SÜRATLE BÜYÜYOR

OpenAI, geçen yıl GPT-3 ve GPT-4 tarafından desteklenen sohbet robotu ChatGPT’yi piyasaya sürdüğünde üretken yapay zeka patlamasını hızlandırdı ve iki ay içinde aylık 100 milyon kullanıcıyı aşarak en süratli büyüyen uygulama rekorunu kırdığı bildirildi.

Söz konusu teknoloji için bugüne kadar Microsoft, OpenAI’ye 13 milyar dolardan fazla yatırım yapmıştı.

YAPAY ZEKANIN PALAVRALARINI EN AZA İNDİRMEYE ÇALIŞACAKLAR

OpenAI tarafından geliştirilen ChatGPT yahut Google Bard üzere modeller kullanıldığında yapay zeka halüsinasyonlarının ortaya çıkmasına neden oluyor.

Buna bir örnek: Google’ın Bard için Şubat ayında yayınladığı tanıtım görüntüsünde, chatbot James Webb Uzay Teleskobu hakkında gerçek dışı bir argümanda bulunmuştu. Daha yakın bir vakitte ChatGPT, New York federal mahkemesine yaptığı bir müracaatta “sahte vakalardan” bahsetmişti.

OpenAI araştırmacıları raporda “En gelişmiş modeller bile yanlışlar üretmeye eğilimlidir ve belirsizlik anlarında gerçekleri icat etme eğilimi gösterirler” diye yazdı.

Ayrıca araştırmacılar “Bu halüsinasyonlar çok adımlı muhakeme gerektiren alanlarda bilhassa problemlidir zira tek bir mantıksal yanılgı çok daha büyük bir tahlili raydan çıkarmak için kafidir.” sözlerine yer verdiler.

İNSANLAR ÜZERE DÜŞÜNEN MODELLER GELİŞTİRİLECEK

OpenAI’nin uydurmalarla çaba için potansiyel yeni stratejisi, yapay zeka modellerini, bir karşılığa ulaşırken yalnızca hakikat bir son sonucu ödüllendirmek yerine, her bir yanlışsız akıl yürütme adımı için kendilerini ödüllendirecek biçimde eğitmek olarak görülüyor.

Araştırmacılara nazaran bu yaklaşım “sonuç denetimi”nin aksine “süreç denetimi” olarak isimlendiriliyor ve modelleri “insan gibisi bir düşünce” yaklaşımını takip etmeye teşvik ediyor.

TESTLER OLUMLU SONUÇ VERDİ

Sonuç kontrolü ile OpenAI, yapay zekanın verdiği son sonuç hakkında geri bildirim sağlamak için ödül modellerini eğitecek. Süreç kontrolü ile, ödül modeli yolun her adımında geri bildirim sağlayarak insan gibisi bir niyet zinciri oluşturacak.

OpenAI, araştırma makalesinde her iki modeli de bir matematik data seti üzerinde test ettiğini ve süreç kontrolü sisteminin “önemli ölçüde daha yeterli performans” sağladığını tespit etti.

SÜREÇ KONTROLÜNÜN MUHTEMEL SONUÇLARINDAN BAHSETTİ

Süreç kontrolü sisteminin mümkün sonuçlarını açıklayan OpenAI şunları söyledi:

“Bu sonuçlar genelleşirse, süreç kontrolünün bize her iki dünyanın da en uygununu sunduğunu görebiliriz. Sonuç kontrolünden hem daha performanslı hem de daha uyumlu bir formül.”

Ayrıca OpenAI, halka açık olan ChatGPT’de süreç kontrolünün uygulanmasının ne kadar süreceği konusunda bir vakit çizelgesi vermedi.

KAYNAK: HABER7
0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış
0
vir_sl_
Virüslü
OpenAI itiraf etti… İnsan üzere düşünen yapay zeka üzerinde çalışıyorlar!

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

betnano
betnano
betnano
betnano
betnano giriş
sekabet
sekabet giris
totobet giris
totobet
supertotobet
supertotobet giriş
gebze avukat
gebze avukat firmaları
casino oyunları
en güvenilir bahis siteleri
forex firmaları
radar fx
dyorex
betnano giriş
betnano giriş
betnano giriş
betnano giriş
vbet giriş
vbet giriş
ngsbahis giriş
ngsbahis giriş
golden bahis
golden bahis
betnano giriş
Giriş Yap

Saç Modelleriniz ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!