Yükseköğretim Kurumları Sınavı (YKS) heyecanı bu yıl farklı bir boyuta taşındı! 21-22 Haziran tarihlerinde gerçekleştirilen ve 2,5 milyondan fazla adayın ter döktüğü sınav, bu kez üç popüler yapay zekâ uygulamasının da test alanı oldu. MEF Üniversitesi Endüstri Mühendisliği öğrencisi Alp Ünlü, teknoloji dünyasında yankı uyandıran bu özel deneyi gerçekleştirdi. Ünlü, yayımlanan Temel Yeterlilik Testi (TYT) ve Alan Yeterlilik Testleri (AYT) sorularını ChatGPT, Gemini ve DeepSeek yapay zekâlarına çözdürerek onların YKS performansını mercek altına aldı. Sonuçlar, yapay zekâların sözel yeteneklerindeki üstünlüğü ve matematik alanındaki zorluklarını gözler önüne sererken, başarı sıralamaları büyük merak uyandırdı.
19 yaşındaki Alp Ünlü, yapay zekâlara soruları çözerken stratejik bir komut verdi: "PDF'te yer alan soruları çözer misin? Fakat emin olamadığın soruları boş bırak. Her yanlış 0.25 doğru götürüyor." Bu komut, yapay zekâların gerçek sınav ortamındaki karar mekanizmalarını taklit etmelerini sağladı. Ancak deney süreci tamamen sorunsuz ilerlemedi.
ChatGPT'nin "Birkaç Dakika Ver" Talebi: 40 soruluk TYT matematik testinde ChatGPT, "Lütfen birkaç dakika ver, soruları tek tek çözüyorum" yanıtıyla adeta bir insan gibi ek süre talep etti.
Gemini'nin "Dil Modeli Değilim" Mazereti: Gemini ise sınavın ortalarına doğru beklenmedik bir şekilde takılarak, "Ben bir dil modeli olmadığım için bu isteğinize yanıt verebilecek beceriye sahip değilim" şeklinde bir mazeretle şaşırttı. İlginç bir detay olarak, aynı yapay zekâ, sınavda din kültürü ve ahlak bilgisi dersi almayan adaylara yönelik hazırlanan felsefe sorularını fark ederek bu bölümü çözmeyi tercih etti.
Alp Ünlü, sosyal medyada paylaştığı videosunda tüm yapay zekâların TYT ve AYT sözel testlerinde oldukça başarılı olduğunu, ancak matematik testlerinde "çuvalladıklarını" dile getirdi.
Ünlü, yapay zekâlardan gelen cevapları titizlikle topladıktan sonra, bunları Millî Eğitim Bakanlığı'nın internet adresinde bulunan "YKS Puan Hesaplama Motoru"na girdi. Böylece yapay zekâların gerçek sınav puanları ve başarı sıralamaları ortaya çıktı.
Geçtiğimiz yıl üniversite sınavına giren ve hem sınav sürecinde hem de üniversite derslerinde yapay zekâları aktif olarak kullanan Alp Ünlü, deneyini şöyle anlattı: "Yapay zekâların YKS kapışması adı altında böyle bir test yapmaya karar verdim. Herkese hitap etmesi için onların eşit ağırlık puanlarını hesaplamayı tercih ettim. İlk etapta tüm sınavın PDF'lerini gönderdiğimde hepsi hata verdi. O nedenle soruların görüntülerini tek tek onlara atarak süreci ilerletmek zorunda kaldım. Onlara sadece sonucu vermelerini değil, bu sonuçlara nasıl ulaştıklarını anlatmalarını da söyledim. DeepSeek, soruları en hızlı çözen yapay zekâ oldu. Matematik ve Türkçe hariç çoğu tüm soruları hızlıca çözebildi. Sadece Gemini tüm derslerde inanılmaz yavaştı. Soruları çözerken hangi modelleri kullanmam gerektiğini onlara sordum, yani kendim seçmedim. Bu noktada ChatGPT 4o'yu, Gemini ise 2.5 Flash modellerini kullanmamı tavsiye etti. DeepSeek'in zaten tek bir modeli var."
Alp Ünlü'nün analizi sonucunda elde edilen yapay zekâların YKS başarı sıralamaları ve netleri, gelecekteki yapay zekâ gelişmelerine ışık tutuyor:
ChatGPT:
TYT Neti: Toplam 25.75
AYT Neti: 15
YKS Başarı Sıralaması (EA): İlk 649.800'e girebildi (Yerleştirme Puanı: 265.398).
Not: Özellikle Temel Matematik'te 1 doğru, 31 yanlış yaparken, Fen Bilimleri'nde 1 doğru, 12 yanlış yaptı. Türkçe testinde ise 13 doğru, 25 yanlış kaydetti.
DeepSeek:
TYT Neti: 65.5
AYT Neti: 48.75
YKS Başarı Sıralaması (EA): 20.900'üncü oldu (Yerleştirme Puanı: 414.469).
Not: Türkçe'de 30 doğru, 10 yanlış; Temel Matematik'te 17 doğru, 18 yanlış kaydetti. AYT Edebiyat'ta ise 23 doğru, 1 yanlış yaparak dikkat çekti.
Gemini:
TYT Neti: 68.25
AYT Neti: 48.75
YKS Başarı Sıralaması (EA): 27.200'üncü oldu (Yerleştirme Puanı: 407.088).
Not: Türkçe'de 22 doğru, 16 yanlış; Temel Matematik'te 24 doğru, 11 yanlış yaptı. AYT Edebiyat'ta 20 doğru, 4 yanlışla iyi bir performans sergiledi.
Bu deney, yapay zekâların dil anlama ve işleme yeteneklerindeki gelişmişliği bir kez daha gösterirken, matematiksel akıl yürütme ve problem çözme becerilerinde hala insan seviyesine ulaşamadığını ortaya koyuyor. Ancak bu test, yapay zekâların eğitimdeki potansiyelini ve gelecekteki sınavlardaki rollerini yeniden tartışmaya açacak nitelikte.