Amazon
New member
11 Şubat Salı günü sona eren Paris AI zirvesi, IA Security: Birkaç uzman ve dernek için kaçırılan bir fırsat sorununu çok az geliştirdi.
Fransa için 109 milyar ve Avrupa Birliği için 200 milyar yatırımın arkasında ” AI'nın eylemi için zirve 11 Şubat Salı günü sona eren Paris'ten, AI sistemleriyle bağlantılı riskler karşısında güvenlik konularını geliştirdi mi? Dünyanın dört bir yanındaki devletler bu çok hassas konuda bir fikir birliği buldu mu?
Bazı uzmanlar için, Paris AI zirvesi herhangi bir ilerlemeye izin vermedi: aksine, ikinci olarak konuyu dikkate alarak bir düşüş notu. Bu, Emmanuel Macron'un bir “ifadesine rağmen” kendinden emin »Yapay zekanın geliştirilmesi için gerekli. Ve bu zirveye umut verici bir başlangıç olmasına rağmen.
“Buraya IA güvenliği hakkında konuşmak için gelmedim »»
6 Şubat etkinliğin yukarısında, bir ” IA Güvenlik Raporu “Yayınlandı, bir çeşit” Yapay zeka güvenliği ile ilgili bilimsel literatürün özeti ”ICAC raporuna eşdeğer. Paralel olaylar ve konferanslar organize edildi – örneğin STK duraklaması IA.
Ancak bu, bu soruyu ilerletme umudunu ortadan kaldırmaya gelen Amerikan Başkan Yardımcısı VD Vance'ın saldırgan konuşmasına güvenmeden oldu. “” Buraya IA güvenliği hakkında konuşmak için gelmedim “11 Şubat Salı günü etkinliğin sonunda teknofile dedi. Risk almanın ve aşırı ihtiyati bir kenara bırakmanın zamanı geldi, dedi özünde Avrupalıların iradesiyle mücadele etti” Vidayı sıkın “Yönetmelikleri ile Amerikan AI ve Dijital Devler” aşırı ” Ve “ masraflı ».
Bazı uzmanlar için geriye doğru
Birkaç nedenden dolayı açıklanan bir tutarsızlık. Her şeyden önce yeni Amerikan yönetimi bir deregülasyon yaklaşımını savunuyor. Donald Trump, bu konuda Joe Biden tarafından kurulan birkaç nadir korumayı kaldırdı ve Avrupa da dahil olmak üzere dünyanın geri kalanıyla bir hesaplaşma başlattı, böylece Amerikan şampiyonlarının gelişimini engellemek için hiçbir düzenleyici kısıtlamanın gelmediği.
Benzer şekilde, zirveden önce belirli bir Fransız organı yaratılmışsa – inesia (AI'nın değerlendirilmesi ve güvenliği Ulusal Enstitüsü) – çok az aracı vardır – gerçekten temiz finansmanla donatılmamıştır. Araştırmacılar ve uzmanlardan oluşan bir Fransız derneği olan AI'nın Güvenliği Merkezi (Cesia) gibi biraz pişmanlığın gerçek bir adımını oluşturacak kadar.
Günün sonunda Salı günü yayınlanan bir açıklamada, dernek pişman oluyor ” AI'daki büyük yatırımlar ile güvenliğine tahsis edilen kaynaklar arasındaki çarpıcı ofset ». Aynı hikaye, 2018'de Turing Ödülü'nü kazanan Yoshua Bengio ile aynı hikaye, Quebec Yapay Zeka Enstitüsü Mila'nın kurucusu ve bilim direktörü ” Kaçırılmış () vesilesiyle ” D '“İlk (ER) Gerçekçilik Gelişmiş modellerin hızlı gelişimi ile ilişkili acil riskler sorunu », X hesabına yazıyor.
“” Bilim, AI'nın dünya liderlerinin çok daha ciddiye almasını gerektiren bir zaman ufkunda büyük riskler oluşturduğunu göstermektedir. “Hala yazıyor.
IA Antropik'in başlangıcının patronu Dario Amodei de bunu yok ediyor ” Başarısız Fırsat ». “” Basın Süresi “Bir basın açıklamasında yazdı,” Uluslararası Tartışmalar ” mutlak ” Bu teknolojinin güvenliğine bağlı artan risklere daha ayrıntılı olarak yaklaşın ».
AI araçlarının kamu yetkilileri tarafından risk değerlendirmesi yok
Özellikle düzenleyicilerin, üretken bir AI aracının doğasında var olan riskleri değerlendirmenin çok az yolu olduğundan, kullanıcılar tarafından erişilebilir hale getirilmeden önce. İkincisi, “ kara kutu AI'nın devlerinin, sosyal ağlar için olduğu gibi açmayı reddetmeleri.
Bu durumda, teknolojik şirketlerin bu erişimi ve işbirliği olmadan riskleri ölçmek ve değerlendirmek zordur. AI şirketleri, 2023 yılında Bletchey Zirvesi sırasında eski İngiliz Başbakanı'na pişman oldular. İki yıl sonra, AI Yasası'na, AI Avrupa düzenlemesine ve Eylül 2024'ten bu yana geliştirilen yapay zeka üzerine iyi bir uygulamalara rağmen hala aynı noktadayız.
Zirve sırasında 11 Şubat'ta yuvarlak bir masada ifade edilen OECD genel sekreteri Mathias Cormann için “ OECD, insanlara odaklanan güvenli, güvenin gelişimini kolaylaştırmak için son zamanlarda güncellenen AI ile ilgili ilkeler geliştirmiştir, ancak bu riskleri azaltmak için risklere ve risklere ihtiyacımız var. OECD'de bir olay izleme sistemimiz var (…), ortaya konan siyasi önlemleri belirlemek için bir tür gözlemevimiz var ”. Ancak “Bir yönetişim çerçevesine, genel bir düzenleyici çerçeveye ihtiyacımız var (…). Biz çok uzaktayız ve AI'nın faydalarından tam güvenlikten yararlanabilmek için yetişmeliyiz. ».
Bu gerekli “ Bugünkü AI araçlarından endişe “Bu öğretmene göre
Avustralya'daki Sunshine Üniversitesi'nde profesör Paul Salmon için ” AI güvenlik sorunlarına ilişkin hükümetlerin ve halkın kayıtsızlığı »Birkaç yanlış anlamayla açıklandı. İçinde Konuşmaİkincisi, örneğin gerekli olduğunu açıklıyor “ Bugünkü AI araçlarından endişe “Bu teknolojiler” Zaten insanlara ve topluma önemli hasara neden olur “Özellikle atıfta bulunarak ekliyor” Seçimlere müdahale, insan çalışmasının değiştirilmesi, önyargılı karar -derin dişler, dezenformasyon ve dağınıklaştırma ».
Zirve sırasında bir kenara bırakılan tek konu güvenlik değildir. Not olarak Bağlam 12 Şubat Çarşamba,, ek ” Kişisel ve Gizlilik Verilerinin Korunması », Zirvenin son beyanının ilk versiyonunda çok mevcut olan bir söz, nihayet altmış ülke tarafından imzalanan metinden kayboldu. Zirvenin ilk gününde yayınlanan bir basın açıklamasında, hakların savunmacısı, haklarımızı ve özgürlüklerimizi savunmaktan sorumlu bu Fransız otoritesi yine de ısrar etti ” Yani bu önemli anda temel haklar unutulmaz ».
Fransa için 109 milyar ve Avrupa Birliği için 200 milyar yatırımın arkasında ” AI'nın eylemi için zirve 11 Şubat Salı günü sona eren Paris'ten, AI sistemleriyle bağlantılı riskler karşısında güvenlik konularını geliştirdi mi? Dünyanın dört bir yanındaki devletler bu çok hassas konuda bir fikir birliği buldu mu?
Bazı uzmanlar için, Paris AI zirvesi herhangi bir ilerlemeye izin vermedi: aksine, ikinci olarak konuyu dikkate alarak bir düşüş notu. Bu, Emmanuel Macron'un bir “ifadesine rağmen” kendinden emin »Yapay zekanın geliştirilmesi için gerekli. Ve bu zirveye umut verici bir başlangıç olmasına rağmen.
“Buraya IA güvenliği hakkında konuşmak için gelmedim »»
6 Şubat etkinliğin yukarısında, bir ” IA Güvenlik Raporu “Yayınlandı, bir çeşit” Yapay zeka güvenliği ile ilgili bilimsel literatürün özeti ”ICAC raporuna eşdeğer. Paralel olaylar ve konferanslar organize edildi – örneğin STK duraklaması IA.
Ancak bu, bu soruyu ilerletme umudunu ortadan kaldırmaya gelen Amerikan Başkan Yardımcısı VD Vance'ın saldırgan konuşmasına güvenmeden oldu. “” Buraya IA güvenliği hakkında konuşmak için gelmedim “11 Şubat Salı günü etkinliğin sonunda teknofile dedi. Risk almanın ve aşırı ihtiyati bir kenara bırakmanın zamanı geldi, dedi özünde Avrupalıların iradesiyle mücadele etti” Vidayı sıkın “Yönetmelikleri ile Amerikan AI ve Dijital Devler” aşırı ” Ve “ masraflı ».
Ancak AI güvenliği, iki yıl önce, 2023 yılında İngiltere'de düzenlenen Bletchley Zirvesi'nin ana konusu oldu. Ancak ikincisi ikincisine – son plana bile düştü. Fransa'nın son beyanında zar zor bahsedilmiyor.Ayrıca okumak için: “Amerika Kabul Etmeyecek”: ABD Başkan Yardımcısı Avrupa ve onun düzenlemesi ia
Bazı uzmanlar için geriye doğru
Birkaç nedenden dolayı açıklanan bir tutarsızlık. Her şeyden önce yeni Amerikan yönetimi bir deregülasyon yaklaşımını savunuyor. Donald Trump, bu konuda Joe Biden tarafından kurulan birkaç nadir korumayı kaldırdı ve Avrupa da dahil olmak üzere dünyanın geri kalanıyla bir hesaplaşma başlattı, böylece Amerikan şampiyonlarının gelişimini engellemek için hiçbir düzenleyici kısıtlamanın gelmediği.
Ülke ayrıca zirvenin son beyanını imzalamayı reddetti. Bu bağlayıcı olmayan metinde, altmış imzacı (Avrupa Birliği ve Çin dahil) bir yapay zekayı tanıtmayı taahhüt eder ” Güvenli ve Güven ». Amerika Birleşik Devletleri'nin yanında, Birleşik Krallık ve Birleşik Arap Emirlikleri de metni imzalamamayı seçtiler, basit bir şerefiye beyanı için bile bir fikir birliğinin ortaya çıkmadığını kanıtladı.Ayrıca okuyun: şaşkınlıktan müzakereye: Trump-Musk ikilisi 13 gün içinde Avrupa nasıl boşaltıldı
Benzer şekilde, zirveden önce belirli bir Fransız organı yaratılmışsa – inesia (AI'nın değerlendirilmesi ve güvenliği Ulusal Enstitüsü) – çok az aracı vardır – gerçekten temiz finansmanla donatılmamıştır. Araştırmacılar ve uzmanlardan oluşan bir Fransız derneği olan AI'nın Güvenliği Merkezi (Cesia) gibi biraz pişmanlığın gerçek bir adımını oluşturacak kadar.
Günün sonunda Salı günü yayınlanan bir açıklamada, dernek pişman oluyor ” AI'daki büyük yatırımlar ile güvenliğine tahsis edilen kaynaklar arasındaki çarpıcı ofset ». Aynı hikaye, 2018'de Turing Ödülü'nü kazanan Yoshua Bengio ile aynı hikaye, Quebec Yapay Zeka Enstitüsü Mila'nın kurucusu ve bilim direktörü ” Kaçırılmış () vesilesiyle ” D '“İlk (ER) Gerçekçilik Gelişmiş modellerin hızlı gelişimi ile ilişkili acil riskler sorunu », X hesabına yazıyor.
“” Bilim, AI'nın dünya liderlerinin çok daha ciddiye almasını gerektiren bir zaman ufkunda büyük riskler oluşturduğunu göstermektedir. “Hala yazıyor.
IA Antropik'in başlangıcının patronu Dario Amodei de bunu yok ediyor ” Başarısız Fırsat ». “” Basın Süresi “Bir basın açıklamasında yazdı,” Uluslararası Tartışmalar ” mutlak ” Bu teknolojinin güvenliğine bağlı artan risklere daha ayrıntılı olarak yaklaşın ».
AI araçlarının kamu yetkilileri tarafından risk değerlendirmesi yok
Özellikle düzenleyicilerin, üretken bir AI aracının doğasında var olan riskleri değerlendirmenin çok az yolu olduğundan, kullanıcılar tarafından erişilebilir hale getirilmeden önce. İkincisi, “ kara kutu AI'nın devlerinin, sosyal ağlar için olduğu gibi açmayı reddetmeleri.
Bu durumda, teknolojik şirketlerin bu erişimi ve işbirliği olmadan riskleri ölçmek ve değerlendirmek zordur. AI şirketleri, 2023 yılında Bletchey Zirvesi sırasında eski İngiliz Başbakanı'na pişman oldular. İki yıl sonra, AI Yasası'na, AI Avrupa düzenlemesine ve Eylül 2024'ten bu yana geliştirilen yapay zeka üzerine iyi bir uygulamalara rağmen hala aynı noktadayız.
Zirve sırasında 11 Şubat'ta yuvarlak bir masada ifade edilen OECD genel sekreteri Mathias Cormann için “ OECD, insanlara odaklanan güvenli, güvenin gelişimini kolaylaştırmak için son zamanlarda güncellenen AI ile ilgili ilkeler geliştirmiştir, ancak bu riskleri azaltmak için risklere ve risklere ihtiyacımız var. OECD'de bir olay izleme sistemimiz var (…), ortaya konan siyasi önlemleri belirlemek için bir tür gözlemevimiz var ”. Ancak “Bir yönetişim çerçevesine, genel bir düzenleyici çerçeveye ihtiyacımız var (…). Biz çok uzaktayız ve AI'nın faydalarından tam güvenlikten yararlanabilmek için yetişmeliyiz. ».
Bu gerekli “ Bugünkü AI araçlarından endişe “Bu öğretmene göre
Avustralya'daki Sunshine Üniversitesi'nde profesör Paul Salmon için ” AI güvenlik sorunlarına ilişkin hükümetlerin ve halkın kayıtsızlığı »Birkaç yanlış anlamayla açıklandı. İçinde Konuşmaİkincisi, örneğin gerekli olduğunu açıklıyor “ Bugünkü AI araçlarından endişe “Bu teknolojiler” Zaten insanlara ve topluma önemli hasara neden olur “Özellikle atıfta bulunarak ekliyor” Seçimlere müdahale, insan çalışmasının değiştirilmesi, önyargılı karar -derin dişler, dezenformasyon ve dağınıklaştırma ».
Zirve sırasında bir kenara bırakılan tek konu güvenlik değildir. Not olarak Bağlam 12 Şubat Çarşamba,, ek ” Kişisel ve Gizlilik Verilerinin Korunması », Zirvenin son beyanının ilk versiyonunda çok mevcut olan bir söz, nihayet altmış ülke tarafından imzalanan metinden kayboldu. Zirvenin ilk gününde yayınlanan bir basın açıklamasında, hakların savunmacısı, haklarımızı ve özgürlüklerimizi savunmaktan sorumlu bu Fransız otoritesi yine de ısrar etti ” Yani bu önemli anda temel haklar unutulmaz ».
Herhangi bir 01net haberini kaçırmamak için bizi Google News ve WhatsApp'ta takip edin.![]()