Seyran Park
Doğa Veteriner Kliniği
SON DAKİKA
01:26 Ardahan’da pompalı tüfekle çevreye rastgele ateş açan şahıs etkisiz hale ge...01:24 Üç aracın karıştığı kazada ortalık savaş alanına döndü: 3 yaralı01:00 Burdur’da kavşağa kontrolsüz giren aracın çarptığı otomobil takla attı: 2 y...00:22 Yenice’de otomobil traktöre çarptı; 2 kişi yaralı23:53 İsrail’de polisten esir yakınlarına sert müdahale23:43 Türkiye Sigorta Türkiye Basketbol Ligi: MSK: 66 - Gölbaşı Belediyesi TED An...23:42 Esenler’de yol kenarında erkek cesedi bulundu23:40 İzmir’de Tarihi Kemeraltı Çarşısı’ndaki büyük yangın kontrol altında23:30 İYİ Parti Genel Başkanı Dervişoğlu: "Cumhurbaşkanı Erdoğan tebrik için arad...23:23 Fuat Erdal’dan, play-off başarısına tebrik mesajı23:10 Bakan Yerlikaya: "Polis merkezi amirimiz ve ekipler amirimiz tüm müdahalele...23:08 İzmir’de Tarihi Kemeraltı Çarşısı’nda yangın: Tekstil deposu alevlere tesli...23:07 CHP Genel Başkanı Özel’den Dervişoğlu’na tebrik22:59 İçişleri Bakanı Ali Yerlikaya: "Bugün saat 20.15 sıralarında, Adıyaman Altı...22:58 Adıyaman’daki olayda karakol amiri ve ekipler amiri şehit oldu22:48 Pancar toplarken yılan soktu, askeri helikopterle sağlık ekiplerine teslim...22:45 Ticaret Bakanı Bolat, Almanya’da22:44 Bakan Bak’tan Galatasaray Erkek Sutopu Takımı’na tebrik22:43 CHP Genel Başkanı Özel’den İYİ Parti Genel Başkanı seçilen Dervişoğlu’na te...22:42 Yerde yuvarlanması tepki çeken AK Partili meclis üyesi görevinden istifa et...
Teknoloji 17 Şubat 2024 - 10:07 Yorum: 0

"Ses"li tehlike

Yapay zekanın korkutan yanlarından biri olan "deepfake" (derin sahte) teknolojisi, dolandırıcıların elinde hem vatandaşı mağdur ediyor hem de dezenformasyona sebep oluyor. Ünlü isimlerin seslerini taklit ederek yatırım vaadi yalanıyla hazır...

'Ses'li tehlike

Yapay zekanın korkutan yanlarından biri olan "deepfake" (derin sahte) teknolojisi, dolandırıcıların elinde hem vatandaşı mağdur ediyor hem de dezenformasyona sebep oluyor. Ünlü isimlerin seslerini taklit ederek yatırım vaadi yalanıyla hazırladıkları videoları internet ortamına yayan dolandırıcılar, vatandaşların gerçeklik algısını hedef alıyor. Yapay zekanın ateş ve bıçak gibi olduğunu, birçok faydası bulunduğunu fakat kötü ellerde zarara sebebiyet verdiğini söyleyen KOÜ Yazılım Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Mehmet Zeki Konyar, bu teknolojinin tüm detaylarını anlatarak, önemli uyarılarda bulundu.
Hızla büyüyen yapay zeka, bir yandan hayatı kolaylaştırırken, diğer yanda kötü amaçlar için kullandığında çeşitli endişelere sebep olabiliyor. Özellikle yapay zekanın hem hayran bırakan hem de korkutan örneklerinden biri olan deepfake videoları, sorumsuzca kullanıldığında dezenformasyonun hızla yayılmasına yol açıyor. Son olarak internet ortamında sponsorlu olarak paylaşılan ve yayılan videolarda kullanılan yöntem, yazılım mühendislerini bile şaşkına çevirdi. Ünlü kişilerin seslerini yapay zeka ile taklit eden dolandırıcılar, Türkiye’nin önemli şirketlerinin isimlerini de kullanarak, "Yatırım yapın, para kazanmaya başlayın" vaadinde bulunuyor. Yapay zeka ile elde edilen sahte ünlü görüntüleri ve sesleri, vatandaşları mağdur ediyor.

"Bilgisayarlara birtakım şeyler öğreterek, karar vermesini sağlıyoruz"
Kocaeli Üniversitesi (KOÜ) Yazılım Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Mehmet Zeki Konyar, hem hayat kurtaran hem de korkutan yapay zekanın tehlikeli yönüne ilişkin bilgilendirmelerde bulunarak, vatandaşları uyardı. Yapay zekanın, bilgisayarın neredeyse bir insanmış gibi düşünmesine, eyleme geçmesine ve yanıt vermesine imkan sağladığını ifade eden Doç. Dr. Mehmet Zeki Konyar, "Bilgisayarların düşünme kabiliyetleri yok. Aslında biz bu bilgisayarlara birtakım şeyler öğreterek, karar vermesini sağlıyoruz. Mesela elma ve armutun fotoğrafını gösteriyoruz. Yüzlerce, binlerce veri kümeleri içerisinden ’Bu elmadır’ ’Bu armuttur’ diyoruz ve birtakım matematiksel formüller ile bunlara ait özellikleri çıkarıyor. Bu özelliklerden sonra karar oluşturuyor. Örneğin elmaya ve armuta dair özelliklerin neler olduğuyla ilgili bir karar çıkarıyor. Bundan sonra gösterdiğimiz elma ve armuta bakıp, ’Bu elmadır’ ’Bu armuttur’ diyerek karar veriyor" dedi.

"Tüm varyasyonları biliyor"
Günümüzde yapay zekanın çok ilginç bir hal almaya başladığını söyleyen Konyar, pandemiden sonra yeni yazılımlar çıktığını belirtti. Sohbet robotlarından, deepfake teknolojisine kadar birçok yazılımın popüler olduğunu anlatan Konyar, "Her gün yenisi çıkıyor. Artık çok basit bir ses kaydınızla sizin için bir video oluşturabiliyorlar. Veya yazdığınız metin ile sizin için yeni bir fotoğraf üretebiliyorlar. Bunun içinde yapay zekanın güncel teknolojileri kullanılıyor. Binlerce, milyonlarca görüntü kullanılarak bu iş yapılıyor. Örneğin, ’Ben kuş görmek istiyorum. Gagası, kanatları şu şekilde olsun’ dediğinizde, böyle bir kuş gerçekte olmayabiliyor ama milyonlarca kuş görüntüsüyle eğitildiği için bunlara ait özellikleri öğrenmeye başlıyor. Mesela artık gagaların nasıl olabileceğini biliyor. Tüm varyasyonları biliyor. Dolayısıyla sizin istediğiniz enteresan özellikteki kuşu üretip, karşınıza çıkarıyor" diye konuştu.

"Biraz bilinçli değilsek kanabiliyoruz"
Son zamanlarda yapay zeka teknolojisi kullanılarak yapılan dolandırıcılık olaylarında artış yaşandığına dikkat çeken Doç. Dr. Mehmet Zeki Konyar, sözlerine şöyle devam etti:
"Bu sahte videolarda birtakım ünlü kişiler kullanılıyor. Örneğin aralarında Selçuk Bayraktar’ın, Aydın Doğan’ın olduğu videolar yapılmaya başlandı. ’Şuraya yatırım yapın’, ’Ben şuraya katıldım çok para kazandım’ ’Şuraya para gönderin’ gibi videolar çıkmaya başladı. Maalesef birçoğumuz buna inanmak durumunda kalabiliyoruz. Eğer ki biraz bilinçli değilsek kanabiliyoruz. Selçuk Bey’in böyle bir işe girmeyeceğini biliyoruz. Biz biliyoruz fakat bazen bazı vatandaşlarımız bu durumun farkında olmayabiliyor. Ya da Aydın Doğan’ın ismi, cismi bilinmeyen bir yere yatırım çağrısı yapmayacağını biliyoruz. Halkımızın bunu biliyor olması gerekiyor. Ünlülerin adı sanı bilinmeyen bir yerden reklam yapmayacağını herkes bilir. Çünkü bir ünlü reklam alıyorsa bunu sosyal medya hesaplarında paylaşabiliyor"

"Kazandıkları paraları dolandırıcılık yöntemini geliştirmek için harcıyorlar"
İnternet ortamına yayılan sahte videoların profesyonel yazılımcılar tarafından hazırlandığını kaydeden Doç. Dr. Konyar, "Yurt içinden veya yurt dışından birtakım siparişlerle yazılım yaptırabiliyorlar. Mesela bugün Hindistan’a istediğiniz yazılımı yaptırabilirsiniz. Orada Hindistanlı yazılımcılar ucuza çalıştığı için sizin tarif ettiğiniz özelliklerle size yazılım yapıp, gönderebiliyorlar. Dolandırıcılar da maalesef çok popüler işler yapıyorlar. Yazılımı son teknolojisine kadar kullanabiliyorlar. Yurt dışından birisi yaptığı için Türkiye’de kimse de töhmet altında kalmamış oluyor. Zaten dolandırıcılar bu işi çok iyi biliyorlar. Nasıl dolandırılacağını, hangi yazılımla, hangi teknolojiyle bunları biliyorlar. Bazen biz bile şaşırıyoruz. O kadar güncel teknolojiler kullanıyorlar ki... Çünkü kazandıkları devasa paralar var ve bu devasa paranın bir kısmını kendilerini, dolandırıcılık yöntemini geliştirmek için harcıyorlar" şeklinde konuştu.

"Bedava peynir sadece fare kapanında olur"
Yazılım Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Mehmet Zeki Konyar, sahte videoların internet ortamında reklam olarak vatandaşların karşısına çıktığını, bunun ise "phishing (oltalama)" olarak adlandırılan bir yöntem olduğu bilgisini verdi. Bazı vatandaşların kişisel bilgilerine zaman zaman ilgisiz davranabildiğini vurgulayan Konyar, şu ifadeleri kullandı:
"Bir kısım vatandaşımız, ’Deneyelim. Bir şey çıkmazsa en fazla telefon numaram gider’ diye düşünüyor. Onun için bu değerli bilgi olamayabiliyor ama sadece telefon bilgimizi almıyor. Sizin ses kaydınızı da alabiliyor. Bu ses kaydınızı yapay zeka yöntemi ile kullanarak akrabalarınızı dolandırabilir. Nasıl Selçuk Bayraktar’ın, Aydın Doğan’ın sesini kullanabiliyorsa sizin sesinizi de üretebilirler. Karşımıza bir video, reklam çıktığı zaman kesinlikle şüphelenmemiz gerekiyor. Çokça söylüyoruz, bedava peynir sadece fare kapanında olur. Kimse bize düşük bir yatırımla yüksek paralar vermez"

"Yapay zeka aynı bıçak ve ateş gibidir"
Yapay zekanın ürettiği sahte videolar da ipuçları da bulunduğunu dile getiren Konyar, "En bilenini ses ve dudak senkron şekilde hareket etmez. Dudak hareketlerimizi tam olarak taklit edemiyor. Her insanın farklı harf ve ses hareketleri var. Bizim çıkardığımız harfleri ve kelimeleri taklit edemiyor. Deepfake dediğimiz derin sahtelik videolarında gözlerin hareketlerini de takip etmek gerekiyor. İnsanların gözlerini doğal davranışı bellidir. Gözlerdeki davranış doğal mı, kirpik kaşlar doğal oynuyor mu? Sahte videolar yavaşlayınca saçmalamaya başlıyor. Görüntüler tuhaflaşıyor. Dudak hareketleri yüz, el, kol değişmeye başlıyor. Yazılım, yapay zeka aynı bıçak ve ateş gibidir. Binlerce faydası var ama bıçağı başka amaçla kullanmaya başladığınızda zararları var. Ateşin birçok faydası var ama bir yerleri de yakmamak lazım. Yapay zeka harikadır, yazılım çok güzeldir birçok kişinin, birçok firmanın hayatını kolaylaştırıyor ama bir de zarar tarafı var. Uyanık olmak lazım" diye konuştu.
Doç. Dr. Mehmet Zeki Konyar, sahte videoların ilgili mercilere bildirilmesi gerektiğine de dikkat çekerek, "Karşımıza çıkan böyle videolar olduğunda kesinlikle yetkililere bildirelim. Bilişim Teknolojileri ve İletişim Kurumu’nun ihbar hattı var. Vatandaşlarımızın o ihbar hattı ile iletişime geçerek, bu güvenli olmayan ya da şüpheli olan videoları, işlemleri bildirmeleri gerekiyor" dedi.

Haber Kaynağı: İhlas Haber Ajansı
İHA İhlas Haber Ajansı tarafından geçilen tüm Haberler, bu bölümde Malatya Güncel Haber editörlerinin hiçbir editoryal müdahalesi olmadan otomatik olarak ajans kanallarından geldiği şekliyle yer almaktadır. Girilen Haberler alanında yer alan haberlerin hepsinin hukuki muhatabı haberi geçen ajanslardır.
HABERE YORUM KAT
UYARI! Suç teşkil edecek, yasadışı, tehditkar, rahatsız edici, hakaret ve küfür içeren, aşağılayıcı, küçük düşürücü, kaba, ahlaka aykırı, kişilik haklarına zarar verici ya da benzeri niteliklerde içeriklerden doğan her türlü mali, hukuki, cezai, idari sorumluluk içeriği gönderilen, yorumlar/yorumcuya aittir.
Hiç bir şekilde Malatyaguncel.com sorumlu değildir.
İHA tarafından geçilen tüm haberler, bu bölümde malatyaguncel.com editörlerinin hiçbir editoryal müdahalesi olmadan otomatik olarak ajans kanallarından geldiği şekliyle yer almaktadır. Bu alanda yer alan haberlerin hepsinin hukuki muhatabı haberi geçen İHA ajansıdır.
Malatya Haber
Malatya Haber
Malatya Güncel Haber