Hayatın her alanını etkileyen yapay zeka teknolojileri, eğitim sektöründe de ödev yaptırma aracı olarak kullanılmaya başlandı. Bu durumun etik olmamakla birlikte birçok problemi beraberinde getirdiğini ifade eden SCÜ İletişim Fakültesi, Yeni Medya ve İletişim Anabilim Dalı Öğretim Üyesi Doç. Dr. Sefer Darıcı, Chat GBT gibi modellerin kullanıcılarını her zaman doğru bilgi vermediği yönünde uyardı. Yapay zeka teknolojilerinin son yıllarda farklı kullanım alanlarının doğduğunu vurgulayan Doç. Dr. Darıcı, “Birçok sektör, yapay zeka teknolojilerinden hem olumlu hem de olumsuz bir şekilde etkilendi. Tabii sektörde derken eğitim camiasının içinde de yapay zekanın özellikle ödev ve tez yazımı gibi amaçlarla kullanılması hala etik olarak tartışmalı bir konu. Chat GPT veya buna benzer yapay zeka modelleri bilgiye erişmede günümüzde öğrenciler ve akademisyenler tarafından sıklıkla kullanılıyor. Ancak Chat GPT’nin ödev yazdırma ve tez yazdırma amaçlı kullanılması, birçok sıkıntıyı ve problemi de beraberinde getiriyor. Normalde internetin kullanıldığı gibi, yapay zekada bir bilgiye erişme ve çeşitli farklı kaynaklarla ilgili bilgi sahibi olma amacıyla kullanılabiliyor. Ancak aynı internette olduğu gibi bunlar da yalan, sahte, uydurulmuş ve dezenformatik içerikler söz konusu olabiliyor. Chat GPT gibi yapay zeka modelleri özellikle internet ortamından veya daha farklı yapay zeka modelleri de sizin verdiğiniz veriler üzerinden çeşitli sonuçlar üretebiliyor” diye konuştu.
‘ÖĞRENCİLER AÇISINDAN DA CİDDİ PROBLEMLER VE SIKINTILARLA KARŞILAŞILABİLİR’
Öğrencilerin ödevlerini yapay zeka uygulamasına yaptırdıklarını söyleyen Darıcı,”Öğrencilerin, son dönemde ödevlerini Chat GPT’ye yaptırmaları yönünde bir eğilimi olduğu görülüyor.Tabi burada öğrenciler açısından da ciddi problemler ve sıkıntılarla karşılaşılabilir. Çünkü birincisi, öğrencilere bu ödevler kendilerini geliştirmeleri için veriliyor. Hazırda olan bir cevabı kopyalayıp yapıştırmaları için verilmiyor. İkincisi, bu tarzdaki içerikler, mezun olacakları alanlarda kendilerinde de uygulamada ciddi sıkıntılar doğurabilir” ifadelerini kullandı.
‘YANILTICI SONUÇLAR OLABİLİR’
Yapay zeka tarafından hazırlanan metinlerin kolayca anlaşıldığını söyleyen Darıcı, “Özellikle Chat GPT’nin vermiş olduğu sonuçlar, yanıltıcı sonuçlar olabilir. ‘Chat GPT’ dediğimiz yapay zeka modelinde yazılan içerikler, aynı zamanda başka yapay zeka uygulamalarıyla kontrol edilebiliyor. Yani bir insan tarafından yazılıp yazılmadığı ortaya konulabiliyor. Yapay zeka duygusal içerikli ifadeler yerine daha nötr ifadeler kullanırken, insan daha fazla duygusunu belli eden kelimeler veya semboller kullanabiliyor. Yani herhangi bir metnin yapay zeka tarafından mı yoksa insan tarafından mı yazıldığı yine uygulamalar vasıtasıyla ortaya konulabilir. Yapay zekayı, aynı internet gibi belirli bilgilere ya da doğru bilgilere ulaşmada bir araç olarak kullanmak çok daha mantıklı. Ancak yapay zekayı araç olarak kullanırken de bize sağlamış olduğu verilerin doğru olup olmadığına da özellikle dikkat etmek gerekiyor” diye konuştu.
‘EMEK İSTEYEN KONULARDA KULLANILMASI YASAKLANABİLİR’
Yapay zeka kullanırken kişisel bilgilerin kullanılmaması noktasında da uyarı da bulunan Doç. Dr. Sefer Darıcı, şöyle konuştu:
“Kesinlikle kişiye has birtakım bilgilerin verilmemesi de özellikle önem arz ediyor. Çünkü ilerleyen süreç içerisinde buradan sağlanan bilgilerin nerede ve nasıl kullanılacağı hala tartışmalı bir konu. Aslında iyi bir eğitimci, öğrencisinin üslubunu ve tarzını, bir metni yazarken ne tarzda ifadeler kullandığına da zaman içerisinde aşina oluyor. Yani herhangi bir metni yapay zekaya yazdırıp öğretmene sunduğunuzda öğretmen öğrencisini iyi tanıyorsa zaten orada bu metni çözümleyecektir. Birçok yapay zeka dil modellerinde, herhangi bir şekilde kıyaslama ve karşılaştırma yapıldığı zaman da yüzde 60-80 oranında, sanki insan tarafından yazılmış gibi sonuçlar da üretebiliyor. İlerleyen süreç içinde, yurt dışındaki birçok eğitim kurumu gibi yapay zekanın özellikle ödevlerde ve tez yazımı gibi çok daha emek isteyen konularda kullanılması yasaklanabilir.” (DHA)