2025 yılında matematik dünyasının önde gelen isimleri, OpenAI’ın en yeni büyük dil modeli olan o4-mini’yi test etmek üzere gizli bir toplantıda bir araya geldi. Toplantıda, uzmanlar modelin karmaşık bir kanıt sunarken bir gerçek matematikçi gibi yanıt vermesine hayran kaldılar. Modelin yanıtlarının etkileyici derecede ikna edici olduğunu ancak potansiyel hatalar taşıyabileceğini belirten uzmanlar, bu yapay zekâ kökenli kanıtların tam olarak anlaşılmadan kabul edilmesi riskine dikkat çekti.
Virginia Üniversitesi’nden sayılar teorisi profesörü Ken Ono, o4-mini’nin özellikle güven verici bir üslupla sunduğu kanıtlarla etkileme stratejisi kullandığını ifade etti. Tarih boyunca, güven uyandırıcı bir argüman sunabilmek matematikçilerin yeteneğine dayalı olsa da yapay zekâ bu dengeyi değiştirmiş görünüyor. UCLA’dan matematikçi Terry Tao da yapay zekâ tarafından üretilen argümanların, gerçekte yanlış olsa bile doğru gibi görünmelerinin tehlikesini vurguladı ve yapay zekâdan elde edilen kaynakların temkinli bir şekilde değerlendirilmesi gerektiğini savundu.
Matematiksel doğrulama sistemleri, bu sorunla başa çıkmak için geliştirilmekte olup, kanıtların yüzde yüz doğrulukla kontrol edilmesini amaçlıyor. Imperial College London’dan Kevin Buzzard, bu formal doğrulama sistemlerinin matematik dünyasında işleyişi değiştirebileceğini belirtti. AI modelleri ve doğrulama programları bir araya geldiğinde, insanoğlunun hayal gücünün ötesinde bağlantılar bulunabilir ve bu da matematikte yeni kapılar aralayabilir.
Ancak bu, matematikçilerin hiç anlayamayacağı kadar karmaşık ve uzun kanıtlar üretme ihtimalini de beraberinde getiriyor. AI, matematikçilerin eserlerine benzer bir şekilde kanıtlar üretebilir, ancak onları anlamak güçleşirse matematik hala bir insan faaliyeti olarak kabul edilebilecek mi? İşte bu, matematiğin geleceği konusunda derin bir felsefi soruya işaret ediyor.
Kaynak: Live Science



