Yeni bir çalışmada, bir grup araştırmacı yapay zekanın, özellikle de büyük dil modellerinin (LLM’ler) sosyal bilim araştırmalarını nasıl yeniden tanımlayabileceğini vurguluyor.
Waterloo’da psikoloji profesörü olan Igor Grossmann, “Bu makalede keşfetmek istediğimiz şey, sosyal bilim araştırma uygulamalarının yapay zekanın gücünden yararlanmak için nasıl uyarlanabileceği, hatta yeniden keşfedilebileceğidir” dedi.
Waterloo Üniversitesi, Toronto Üniversitesi, Yale Üniversitesi ve Pennsylvania Üniversitesi’nden önde gelen araştırmacılar, yeni çalışmalarında, büyük miktarda metin verisi üzerinde eğitilen büyük dil modellerinin, insan benzeri tepkileri ve davranışları giderek daha fazla simüle edebildiğini belirtiyor. Bu da insan davranışları hakkındaki teori ve hipotezlerin büyük ölçekte ve hızda test edilmesine kapı açıyor.
Şimdiye kadar sosyal bilimler, bireylerin, grupların, kültürlerin ve bunların dinamiklerinin özelliklerinin genel bir temsilini elde etmek için anketler, davranış testleri, gözlemsel çalışmalar ve deneyler de dahil olmak üzere araştırmaları için çeşitli yöntemler kullandı. Şimdi, gelişmekte olan yapay zeka teknolojisi bu alandaki veri toplama manzarasını değiştirebilir.
Grossmann, ” Yapay zeka modelleri çok çeşitli insan deneyimlerini ve bakış açılarını temsil edebilir, bu da onlara muhtemelen geleneksel insan katılımcı yöntemlerinden daha çeşitli yanıtlar üretme özgürlüğü verir, bu da araştırmadaki genellenebilirlik endişelerini azaltmaya yardımcı olabilir” dedi.
UPenn psikoloji profesörü Philip Tetlock, “LLM’ler veri toplama için insan katılımcıların yerini alabilir” diye ekledi.
“Aslında, LLM’ler tüketici davranışlarıyla ilgili gerçekçi anket yanıtları üretme yeteneklerini şimdiden gösterdiler. Büyük dil modelleri önümüzdeki üç yıl içinde insan temelli tahminlerde devrim yaratacak. Yapay zeka tarafından desteklenmeyen insanların ciddi politika tartışmalarında olasılıksal yargılara varması mantıklı olmayacaktır. Buna yüzde 90 ihtimal veriyorum. Tabii ki insanların tüm bunlara nasıl tepki vereceği de ayrı bir konu.”
Araştırmacılar ayrıca, simüle edilmiş katılımcıların kullanıldığı çalışmaların, daha sonra insan popülasyonlarında doğrulanabilecek yeni hipotezler üretmek için kullanılabileceğini savunuyor.
Ancak bu yaklaşımın olası tehlikeleri de yok değil. LLM’ler genellikle gerçek hayattaki insanlar için var olan sosyo-kültürel önyargıları dışlamak üzere eğitilirler, bu da yapay zekayı bu şekilde kullanan sosyologların bu önyargıları inceleyemeyeceği anlamına gelir.
Waterloo Üniversitesi’nden makalenin ortak yazarlarından Profesör Dawn Parker, sosyal bilim araştırmalarında LLM’lerin yönetişimine yönelik açık kurallar getirilmesinin önemini vurguluyor.
Parker Phys.org’a verdiği demeçte, “Veri kalitesi, adalet ve güçlü yapay zeka sistemlerine erişim eşitliği ile ilgili pragmatik kaygılar önemli olacaktır” dedi.
“Bu nedenle, tüm bilimsel modeller gibi sosyal bilimlerdeki yapay zeka sistemlerinin de açık kaynaklı olmasını, yani algoritmalarının ve ideal olarak verilerinin herkesin incelemesine, test etmesine ve değiştirmesine açık olmasını sağlamalıyız. Sadece şeffaflığı ve tekrarlanabilirliği koruyarak yapay zeka destekli sosyal bilim araştırmalarının insan deneyimini anlamamıza gerçekten katkıda bulunmasını sağlayabiliriz.”
Kaynak: Interesting Engineering