2003 yılından bu yana dijital bilgi dünyasının referans kaynağı olan Wikipedia, içerik üretim süreçlerinde köklü bir değişikliğe gitti. Platformu yöneten Wikimedia Vakfı bünyesindeki gönüllü editörlerin, ChatGPT ve benzeri üretken yapay zeka araçlarını kullanarak makale oluşturması resmi olarak sınırlandırıldı. Bu kararın merkezinde, yapay zeka botlarının sunduğu bilgilerin doğruluğu, kaynakların güvenilirliği ve içeriklerin tarafsızlığı konusundaki derin endişeler yer alıyor.
Wikipedia yöneticileri, yapay zeka tarafından oluşturulan metinlerin “halüsinasyon” olarak tanımlanan; uydurma bilgiler, çalışmayan bağlantılar ve hayali referanslar üretmeye yatkın olduğunu vurguluyor. Bu durumun, sitenin bilgi güvenilirliği standartlarını doğrudan ihlal ettiği belirtiliyor.
Sınırlı kullanım ve insan denetimi şartı
Alınan yeni kararlar doğrultusunda, yapay zekanın tamamen devre dışı bırakılmadığı ancak kullanım alanlarının daraltıldığı görülüyor. Editörler, makaleleri farklı dillerden çevirmek veya mevcut metinler üzerinde küçük dil bilgisi düzenlemeleri yapmak amacıyla yapay zekadan faydalanabilecek. Ancak bu süreçte yapılan her değişikliğin bir insan tarafından titizlikle incelenmesi ve yapay zeka aracılığıyla makaleye hiçbir şekilde “yeni bilgi” eklenmemesi şart koşuluyor.
Bot tespit yönergeleriyle sıkı denetim
Wikipedia, yapay zeka içeriklerini tespit edebilmek adına geçtiğimiz yıldan bu yana kendi denetim mekanizmalarını geliştiriyor. Bu kapsamda oluşturulan bot tespit yönergeleriyle, editörler yapay zeka yazımına özgü “ipuçlarını” yakalamak üzere eğitiliyor.
Metinlerdeki kırmızı bayraklar; yanlış veya sahte alıntılar, aşırı kullanılan kalıplaşmış ifadeler, gereksiz uzunluktaki açıklamalar ve ani üslup değişimleri olarak sıralanıyor. Wikipedia yönetimi, bu kriterler aracılığıyla platformun dijital kütüphane kimliğini ve bilgi doğruluğunu korumayı amaçlıyor.
Kaynak: Muhalif – Son Dakika Haberleri – Gündem Haberleri – Köşe Yazıları
