Yeni yapay zeka modelleri, bilgisi olmadığında mevcut olanı itiraf etme eğiliminde değiller.
Yeni araştırmalara göre, bir yapay zeka büyük dil modellerinin (Large Language Model) kullanıcının sorusuna bilgisi olmadığını iletmek yerine yanlış cevaplar verme ihtimali daha yüksek. Bu da onlara olan güvenin sarsılmasına neden oluyor. İspanya’daki Universitat Politecnica de Valencia’dan yapay zeka araştırmacılarının BigScience’in BLOOM, Meta’nın Llama ve OpenAI’nin GPT’nin en son sürümlerini, her modele matematik, fen bilimi ve coğrafya hakkında sorular sorarak ölçüm yaptı. Araştırmacılar yapay zeka modellerinin yanıtlarını karşılaştırarak doğru yanlış ve kaçınmış olarak bölümlere ayırdı. Yayımlanan çalışmada yeni modellerde daha zorlu problemlere verilen doğru cevaplarda artış görüldü. Buna ek olarak modeller verdikleri cevapların doğru ya da yanlış olması konusunda daha çekingen davrandı. Eski modeller yanıta sahip olmadıklarını veya daha fazla bilgiye sahip olması gerektiğini açıkça dile getirirken, yeni modeller sorular kolay olsa dahi yanlış yanıt verme ya da tahmin yürütmeye başvurdukları gözlemlendi. LLM’ler, veri setlerini anlamak, tahmin etmek ve bunlara dayalı yeni içerikler oluşturmak için kullanılan derin öğrenme algoritmalarıdır. Yeni modeller daha karmaşık sorunları daha iyi bir şekilde çözebilirken, araştırmadaki bu LLM’ler basit sorularda bazı hatalar yaptığı görüldü. Çalışmada basit örneklerde bile güvenilirlik elde edilmediği ayrıca, “Modeller son derece zorlu örnekleri çözebilseler de, çok basit örneklerde de başarısız oluyorlar” diye belirtildi.
