SON DAKİKA
Hava Durumu

Yapay zeka ölü insanları taklit ediyor

Son zamanlarda, yapay zekanın (YZ) vefat etmiş kişilerin kişiliklerini taklit ederek sohbet robotları oluşturmak için kullanıldığına dair endişeler artmaktadır.

Haber Giriş Tarihi: 12.05.2024 17:08
Haber Güncellenme Tarihi: 12.05.2024 17:08
Kaynak: Sercan USLUBAŞ
Yapay zeka ölü insanları taklit ediyor

Bu tür "ölübotlar" olarak adlandırılan sohbet robotları, vefat eden kişinin sesini, konuşma tarzını ve hatta anılarını taklit edecek şekilde tasarlanabilir.

Etik Sorunlar:

--Yas Tutma Süreci: Ölübotlar, yas tutan kişiler için duygusal açıdan zarar verici olabilir ve ölen kişiyle olan bağlarını koparma sürecini zorlaştırabilir.

--Kimlik Hırsızlığı: Ölübotlar, kimlik hırsızlığı ve dolandırıcılık gibi kötü amaçlı kullanımlar için kullanılabilir. Ölen kişinin kimliğine bürünerek, aile ve arkadaşlarından para veya hassas bilgiler elde etmek için kullanılabilirler.

--Gizlilik: Ölübotlar, ölen kişinin kişisel bilgilerini ve anılarını kullanmayı içerir ve bu da mahremiyet endişelerini gündeme getirebilir.

--Duygusal Manipülasyon: Yas tutanlar, ölen sevdiklerinin dijital temsilleri tarafından duygusal olarak manipüle edilebilir. Bu durum, yas sürecini daha da zorlaştırabilir.

Araştırma Bulguları:

*Cambridge Üniversitesi'nden araştırmacılar tarafından yapılan bir çalışmada, ölübotların yas tutan kişiler için duygusal açıdan zarar verici olabileceği ve ölen kişiyle olan bağlarını koparma sürecini zorlaştırabileceği bulunmuştur.

*Oxford Üniversitesi'nden bir başka araştırma ise ölübotların kimlik hırsızlığı ve dolandırıcılık gibi kötü amaçlı kullanımlar için kullanılabileceğini göstermiştir. 

Yapay zekanın vefat etmiş kişileri taklit etmek için kullanımı, birçok etik soruyu gündeme getirmektedir. Bu tür teknolojilerin geliştirilmesi ve kullanımı konusunda dikkatli olunmalı ve yas tutan kişilerin duygusal durumları ve mahremiyetleri gözetilmelidir.

(Sercan Uslubaş)

Kaynak: Sercan USLUBAŞ

Yorum Ekle
Gönderilen yorumların küfür, hakaret ve suç unsuru içermemesi gerektiğini okurlarımıza önemle hatırlatırız!
Yorumlar
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.