ChatGPT-4’ün arkasındaki grup olan OpenAI, sohbet robotunun en son sürümünün problem çözmede çok daha iyi olduğunu ve çoğu profesyonel ve akademik sınavda “insan düzeyinde performans” elde ettiğini belirten bir rapor yayınladı.
Rapor ilginç bir okuma sunuyor, ancak bazı kaynakların bildirdiği gibi, bu son sürümün yetenekleri hakkında endişeler olabilir.
Örneğin, diğerleri bazı işlerin artık risk altında olabileceğine dikkat çekti. Ancak bu endişeler, önemsenecek kadar büyük değildir.
ChatGPT şöyle diyor: “Bir yapay zeka dil modeli olarak amacım insan zekasına yardımcı olmak ve onu güçlendirmek, onun yerini almak değil. Yeteneklerim ve becerilerim insanlarınkinden farklıdır ve ben insan yeteneklerini tamamlamak için tasarlandım, onları gereksiz kılmak için değil.”
“Etkili bir şekilde çalışmak için gerekli veri ve bilgiyi sağlamak için insanlara güveniyorum. Dahası, insanlar bilgilerimi yorumlamak ve uygulamak için hala gereklidir. Nihayetinde benim amacım insanların yerini almaktan ziyade onların daha verimli ve etkin çalışmasına yardımcı olmaktır.”
İşte mesele de bu. ChatGPT gibi yapay zeka araçları, bildiğimiz kadarıyla, insan etkileşimi olmadan tamamen pasiftir. Yazılımı çalışır hale getiren de bu iki yönlü süreçtir. Ancak raporun daha ilginç başka gözlemleri de var.
Örneğin raporda, insanların yanlış bilgi almasına ve modele bağımlı hale gelmesine neden olabilecek “riskli acil davranışların” ortaya çıkabileceği de belirtiliyor.
Bu “güç arayışı davranışının” bir örneği ChatGPT’nin canlı bir temsilci gibi davranarak ve kimlikleri hakkında yalan söyleyerek bir iş başvurusu sahibini kandırabilmesiydi. Bir başka deneyde OpenAI, chatbot’un bir kimlik avı saldırısı başlatma ve komplonun tüm kanıtlarını gizleme kapasitesini gösterdi. Siber suçluların chatbotu kötü amaçlı kod yazmak için kullanmaya çalıştıklarına dair raporlar da var.
Endişe, şirketlerin uygunsuz veya yasa dışı davranışlara karşı yeterli önlemler almadan GPT-4’ü benimsemek için yarışıyor olmalarıdır. Chatbot’un “nefret söylemi, ayrımcı dil… ve şiddete teşvik” üretme kapasitesi önemli sonuçlar doğurabilir. Ayrıca, tetiklenen bir sohbet robotunun yaratıcılarına veya muhabirlerine tehditkar komutlar vermesi olasılığı da vardır.
Rapor, chatbot tarafından üretilen bilgilere çok fazla güvenmenin sorunlu olabileceğini, çünkü fark edilmeyen hatalara, yetersiz gözetime, önemli becerilerin kaybına ve yeni becerilerin geliştirilmesinin engellenmesine neden olabileceğini kabul ediyor. Sorun daha da kötüleşebilir çünkü chatbot yanlış bilgiler uydurabilir ve bunları önceki versiyonlara göre daha inandırıcı bir şekilde yayabilir.
OpenAI’nin ChatGPT’yi geliştirdiği Elon Musk, potansiyelini “korkutucu derecede iyi” olarak nitelendirdi. “Tehlikeli derecede güçlü bir yapay zekadan uzak değiliz” uyarısında bulundu.
ChatGPT gibi YZ dil modelleri insanları daha zeki hale getirebilir, ancak insan zekasının yerini almaları amaçlanmamıştır. YZ teknolojisi gelişmeye devam ettikçe, bu araçların etik ve sorumlu bir şekilde kullanılmasını sağlamak için uygun önlemlerin alınması çok önemlidir.
Kaynak: Interesting Engineering