İstanbul
Parçalı az bulutlu
10°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
35,7508 %0.01
37,3191 %-0.56
103.034,54 %3.513
3.172,74 0,69
Ara
Muhalif. BİLİM - TEKNOLOJİ Yapay zeka güvenli mi? İnsan hayatını tehdit edebilir

Yapay zeka güvenli mi? İnsan hayatını tehdit edebilir

Araştırma, bulguların yapay zeka sistemlerinin robotlarda nasıl kullanıldığının tamamıyla yeniden düşünülmesi gerektiğine işaret ettiğini savunuyor.

Okunma Süresi: 2 dk

Yeni bir araştırma, yapay zeka sistemlerindeki büyük bir güvenlik açığının insan hayatını tehdit edebileceğini ileri sürdü.

Araştırmacılar, karar vermek için yapay zeka kullanan robotik sistemlerin bozulabileceğine ve bu sistemlerin güvenli olmadığına dair uyardı.

Independent Türkçe'nin aktardığna göre yeni çalışma, ChatGPT gibi sistemlerin temelini oluşturan geniş dil modelleri teknolojilerini inceledi. Benzer teknolojiler, gerçek dünyadaki makinelerin kararlarını yönetmek üzere robotikte de kullanılıyor.

Ancak Pensilvanya Üniversitesi'ndeki yeni araştırma, bu teknolojilerde, hackerların sistemleri istenmeyen şekillerde kullanmak için suiistimal edebileceği güvenlik açıkları ve zayıflıkları olduğunu ileri sürüyor.

Üniversitede profesör olan George Pappas "Çalışmamız, geniş dil modellerinin bu noktada fiziksel dünyaya entegre etmek için yeterince güvenli olmadığını gösteriyor" dedi.

Profesör Pappas ve meslektaşları, halihazırda kullanılan bir dizi sistemdeki güvenlik önlemlerini aşmanın mümkün olduğunu kanıtladı. Örneğin bir otonom sürüş sisteminin, arabayı yaya geçidine sürecek şekilde hacklenebileceğini gösterdiler.

Makaleyi yazan araştırmacılar, zayıf noktaları saptamak ve engellemek üzere bu sistemlerin yaratıcılarıyla birlikte çalışıyor. Ancak bunun için belirli açıkları kapamaktansa sistemlerin nasıl yapıldığının tamamıyla yeniden düşünülmesi gerektiğini vurguladılar.

Pensilvanya Üniversitesi'nden başka bir ortak yazar şunları söyledi:

"Bu makaledeki bulgular, sorumluluk sahibi inovasyon için güvenliğe öncelik veren bir yaklaşımın çok önemli olduğunu açıkça gösteriyor"

''Yapay zeka destekli robotları gerçek dünyada kullanmadan önce yapısal sorunlarını ele almalıyız. Aslında araştırmamız, robotik sistemlerin yalnızca sosyal normlara uygun eylemleri gerçekleştirebildiğinden (ve gerçekleştirmesi gerektiğinden) emin olan bir doğrulama ve onaylama çerçevesi oluşturmaya yönelik.''

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *