Ankara
Eraslan, AA muhabirine yaptığı açıklamada yapay zekanın yaşantıyı kolaylaştıran çok önemli bir teknoloji olduğunu belirterek, özellikle eğitim, sağlık, ekonomi ve iktisat alanında birçok yeniliği ve verimliliği getirdiğini söyledi.
Bu teknolojinin yerinde ve iyi kullanılması, kötü yanlarının minimize edilmesi gerektiğini dile getiren Eraslan, "Son dönemde özellikle kriminal AR-GE yani dolandırıcıların teknolojiyi iyi kullanmasıyla beraber yapay zeka kötü niyetli kişilerin en önemli aracı haline geldi. Yapay zeka insan davranışlarını analiz eden ve bunun üstüne milyonlarca tahmin üretebilen bir algoritmaya sahip. Bunun yanına ses, görüntü ve animasyon gibi çok önemli yeterlilikleri koyduğumuz zaman karşımıza devasa ve çok tehlikeli bir yapı ortaya çıkıyor." değerlendirmesinde bulundu.
Eraslan, yapay zekayı kullanarak oltalama, chatbot, otomatik arama, sosyal medya profilinin taklit edilmesi ve deepfake yöntemiyle dolandırıcılık yapıldığını kaydetti.
Özellikle deepfake yönteminin son günlerde yaygınlaştığını vurgulayan Eraslan, "Sesinizi, görüntünüzü, hal ve hareketlerinizi içeren bir video yayınlayıp arkadaşlarınızdan para isteyebilirler ya da arkadaşınızın kaza yaptığını söyleyen bir avukat rolüne bürünebilirler. Ayırt edilmesi çok güç bir süreçten bahsediyoruz." diye konuştu.
"Sosyal medyadan finansal ve kişisel bilgilerimizi paylaşmayalım"
Dolandırıcılığa karşı yine yapay zekanın kullanıldığını aktaran Eraslan, " 'Yapay zeka, yapay zekaya karşı' diyebiliriz. Çünkü yapay zekanın oluşturduğu dolandırıcılık sistemlerini yine yapay zeka yoluyla engelleyebiliyoruz. Çeşitli güvenlik duvarları ve programlar var. Bunları da süreç içerisinde etkin kullanırsak yapay zekadan doğan dolandırıcılığı engelleyebiliriz." ifadelerini kullandı.
Farkındalığın ve eğitimin önemini vurgulayan Eraslan, "Yapay zeka dolandırıcıları sosyal medyadan besleniyor, öğrenme kaynağının verilmemesi gerekiyor. Sosyal medya hesaplarından finansal ve kişisel bilgilerin paylaşılmaması konusunda vatandaşlarımız daha duyarlı olmalı." dedi.
Kaynak: AA
dikGAZETE.com