YellowSnowman
Member
Microsoft, insan sesini benzersiz bir doğrulukla taklit etmek üzere tasarlanmış yeni bir yapay zeka olan VALL-E 2'yi tanıttı. Teknolojisinin kötü niyetli kişiler tarafından istismar edilebileceğinden korkan yayıncı, yapay zekayı genel halka sunmamayı seçti.
Microsoft, insan sesini taklit edebilen yeni bir yapay zeka olan VALL-E 2'yi tanıttı. Adından da anlaşılacağı gibi, bu, son derece etkili bir konuşma sentezi modeli olan VALL-E'nin ikinci yinelemesidir. Ocak 2023'te duyurulan AI, sadece üç saniyede insan sesini taklit edebildi.
Bu ikinci sürümün daha da verimli olması amaçlanıyor. Microsoft'a göre, VALL-E 2 tarafından üretilen deepfake sesini ayırt etmek imkansız gerçek bir kişinin sesinin. AI ulaştı “insan eşitliği ilk kez”Amerikalı yayıncı web sitesinde kendini tebrik ediyor. Şimdiye kadar, AI yapımları kelimelerdeki veya tonlamadaki küçük kusurlar sayesinde hala fark edilebiliyordu.
Microsoft, VALL-E'nin işlenmesini iyileştirmek için yapay zekanın konuşma verilerini işleme biçiminde iki yenilik ekledi. Bu tasarım değişiklikleri yapay zekanın konuşmayı doğru ve doğal bir şekilde sentezlemesine olanak tanır. “karmaşıklıkları veya tekrarlanan ifadeleri nedeniyle geleneksel olarak zor olan cümleler için bile”.
Ayrıca şunu da okuyun: Deepfake kurbanlarının bu içeriği web'den kaldırmakta neden zorluk çektiğini öğrenin
Ses Deepfake'lerinin Tehlikesi
Microsoft, VALL-E 2'nin ” gibi sektörlerde kullanılabileceğine inanıyor eğitimsel öğrenme, eğlence, gazetecilik, kendi kendine yazılmış içerik, erişilebilirlik özellikleri, etkileşimli sesli yanıt sistemleri, çeviri, chatbot »Ayrıca şirket, yapay zekanın engelli insanlara yardımcı olmak için de kullanılabileceğini düşünüyor.
Şaşırtıcı olmayan bir şekilde Microsoft, risklerin farkında ses üreteci tarafından ortaya atılmıştır. VALL-E gibi bir modeli kullanarak, kötü niyetli bir kişi bir telefon görüşmesi sırasında bir akrabanın, bir ünlünün veya bir politikacının sesini gasp edebilir. Tek yapması gereken, birini bir hesaba para yatırmaya veya hassas bilgileri iletmeye ikna etmek için bir telefon görüşmesi yapmaktır. Microsoft, basın bülteninde, “ modelin kötüye kullanılmasında olası riskler, örneğin ses taklidi veya belirli bir konuşmacının taklidi”.
Bu, her türlü suistimale kapı aralıyor, özellikle de birçok siber suçlu siber saldırıları düzenlemek için deepfake teknolojisini kullanıyor. AI tarafından üretilen içerik, dolandırıcıların büyük mali dolandırıcılıklar gerçekleştirmesini sağladı. Ayrıca yanlış bilgiyle ilgili riskler de var.
Microsoft, bir önlem olarak, İnternet kullanıcılarına AI sunmayı reddetti. “VALL-E 2'yi bir ürüne entegre etme veya kamu erişimini genişletme planı yok” şimdilik. VALL-E 2 sadece araştırma amaçlı tasarlanmıştır.
Microsoft
Microsoft, insan sesini taklit edebilen yeni bir yapay zeka olan VALL-E 2'yi tanıttı. Adından da anlaşılacağı gibi, bu, son derece etkili bir konuşma sentezi modeli olan VALL-E'nin ikinci yinelemesidir. Ocak 2023'te duyurulan AI, sadece üç saniyede insan sesini taklit edebildi.
Bu ikinci sürümün daha da verimli olması amaçlanıyor. Microsoft'a göre, VALL-E 2 tarafından üretilen deepfake sesini ayırt etmek imkansız gerçek bir kişinin sesinin. AI ulaştı “insan eşitliği ilk kez”Amerikalı yayıncı web sitesinde kendini tebrik ediyor. Şimdiye kadar, AI yapımları kelimelerdeki veya tonlamadaki küçük kusurlar sayesinde hala fark edilebiliyordu.
Microsoft, VALL-E'nin işlenmesini iyileştirmek için yapay zekanın konuşma verilerini işleme biçiminde iki yenilik ekledi. Bu tasarım değişiklikleri yapay zekanın konuşmayı doğru ve doğal bir şekilde sentezlemesine olanak tanır. “karmaşıklıkları veya tekrarlanan ifadeleri nedeniyle geleneksel olarak zor olan cümleler için bile”.
Ayrıca şunu da okuyun: Deepfake kurbanlarının bu içeriği web'den kaldırmakta neden zorluk çektiğini öğrenin
Ses Deepfake'lerinin Tehlikesi
Microsoft, VALL-E 2'nin ” gibi sektörlerde kullanılabileceğine inanıyor eğitimsel öğrenme, eğlence, gazetecilik, kendi kendine yazılmış içerik, erişilebilirlik özellikleri, etkileşimli sesli yanıt sistemleri, çeviri, chatbot »Ayrıca şirket, yapay zekanın engelli insanlara yardımcı olmak için de kullanılabileceğini düşünüyor.
Şaşırtıcı olmayan bir şekilde Microsoft, risklerin farkında ses üreteci tarafından ortaya atılmıştır. VALL-E gibi bir modeli kullanarak, kötü niyetli bir kişi bir telefon görüşmesi sırasında bir akrabanın, bir ünlünün veya bir politikacının sesini gasp edebilir. Tek yapması gereken, birini bir hesaba para yatırmaya veya hassas bilgileri iletmeye ikna etmek için bir telefon görüşmesi yapmaktır. Microsoft, basın bülteninde, “ modelin kötüye kullanılmasında olası riskler, örneğin ses taklidi veya belirli bir konuşmacının taklidi”.
Bu, her türlü suistimale kapı aralıyor, özellikle de birçok siber suçlu siber saldırıları düzenlemek için deepfake teknolojisini kullanıyor. AI tarafından üretilen içerik, dolandırıcıların büyük mali dolandırıcılıklar gerçekleştirmesini sağladı. Ayrıca yanlış bilgiyle ilgili riskler de var.
Microsoft, bir önlem olarak, İnternet kullanıcılarına AI sunmayı reddetti. “VALL-E 2'yi bir ürüne entegre etme veya kamu erişimini genişletme planı yok” şimdilik. VALL-E 2 sadece araştırma amaçlı tasarlanmıştır.
Kaynak :01net'ten hiçbir haberi kaçırmamak için bizi Google Haberler ve WhatsApp'tan takip edin.![]()
Microsoft