ChatGPT'ye Tezini Yazdırmak Bilim midir, Yoksa Akademinin Ölüm Sertifikası mı? — Yapay Zeka Çağında "Yazarlık" Tartışması
PhD
Yapay Zeka Çağında "Yazarlık" Ne Anlama Geliyor?
OpenAI'nin ChatGPT'yi piyasaya sürmesiyle birlikte akademik dünyada sismik bir sarsıntı yaşandı. Öğrencilerin ve hatta köklü araştırmacıların üretken yapay zeka (GenAI) araçlarını araştırma süreçlerine entegre etmesi, "akademik yazarlık (authorship)" kavramının temelden sarsılmasına neden oldu. Peki, literatür taramasını AI'a yaptırmak, metodolojiyi ona yazdırmak veya veriyi ona yorumlatmak sadece yeni bir asistan kullanmak mıdır, yoksa akademik intihalin dijital formata bürünmüş hali midir?
COPE ve Akademik Yayıncılarda Yapay Zeka Etiği
Yayın Etiği Komitesi (COPE), yapay zeka araçlarının yazar olarak kabul edilip edilemeyeceğine dair net bir duruş sergilemiştir. COPE rehberine göre ChatGPT veya herhangi bir büyük dil modeli (LLM), yazar olarak listelenemez. Bunun temel nedeni, bir makalede yazar olmanın yasal sorumluluk, etik hesap verebilirlik ve telif hakkı gibi insan doğasına ait yükümlülükler gerektirmesidir.
Bu bağlamda Elsevier, Springer Nature ve Taylor & Francis gibi büyük yayıncılar da politikalarını hızla güncelledi. Bu politikalara göre:
- Yapay zeka araçları metin iyileştirme veya dilbilgisi düzeltme amacıyla kullanılabilir.
- Ancak fikir üretimi, veri analizi sonuçlarının yorumlanması veya doğrudan metin bloklarının kopyalanarak yapıştırılması kesinlikle ihlal sayılır.
- Makalenin yöntem veya teşekkür (acknowledgements) kısmında AI araçlarının nasıl ve ne amaçla kullanıldığı şeffaf bir şekilde bildirilmelidir.
Bilim Felsefesi Açısından Yapay Zeka ve Orijinallik
Bilimsel bilginin üretimi sadece veri toplamak ve bunları kağıda dökmek değildir; aynı zamanda kavramsal bir sentez yapma, argüman inşa etme ve eleştirel düşünme sürecidir. Bir tezin veya makalenin bölümlerini tamamen bir yapay zekaya yazdırmak, araştırmacıyı "bilgi üreten" konumundan çıkarıp "bilgi derleyen" veya "editör" konumuna indirger.
Ayrıca, büyük dil modellerinin eğitim verilerinde yer alan halüsinasyon (hallucination) problemi, bilimsel doğruluğu ciddi şekilde tehdit etmektedir. Var olmayan referansların üretilmesi veya sahte metodolojik gerekçelerin sunulması, akademinin temel direği olan güvenilirliği aşındırır.
Gelecekte Bizi Neler Bekliyor?
Akademide yapay zekayı tamamen yasaklamanın uygulanabilir olmadığı açıktır. Bunun yerine "AI-Destekli Araştırma" ile "AI-Tarafından Üretilen Araştırma" arasındaki ince çizgiyi çizen etik yönergeler ve AI tespit araçları (Turnitin AI detector vb.) ön plana çıkacaktır. Akademisyenlerin ve doktora öğrencilerinin bu teknolojik evrime direnmesi değil, onu şeffaf ve sorumlu bir şekilde kullanmayı öğrenmesi gerekmektedir.
Kaynakça:
COPE Council. (2023). Authorship and AI tools. Committee on Publication Ethics.
Hosseini, M., Resnik, D. B., & Holmes, K. (2023). The ethics of disclosing the use of artificial intelligence tools in writing scholarly manuscripts. Research Ethics.
Thorp, H. H. (2023). ChatGPT is fun, but not an author. Science, 379(6630), 313.