Dolar 34,3643
Euro 36,9590
Altın 2.976,04
BİST 9.161,21
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 16°C
Hafif Yağmurlu
İstanbul
16°C
Hafif Yağmurlu
Cts 14°C
Paz 16°C
Pts 16°C
Sal 16°C

Yapay zeka insan hayatını tehdit edebilir

Araştırma, bulguların yapay zeka sistemlerinin robotlarda nasıl kullanıldığının tamamıyla yeniden düşünülmesi gerektiğine işaret ettiğini savunuyor.

Yapay zeka insan hayatını tehdit edebilir
REKLAM ALANI
18 Ekim 2024 5:05 PM
21

Yeni bir araştırma, yapay zeka sistemlerindeki büyük bir güvenlik açığının insan hayatını tehdit edebileceğini ileri sürdü.

Araştırmacılar, karar vermek için yapay zeka kullanan robotik sistemlerin bozulabileceğine ve bu sistemlerin güvenli olmadığına dair uyardı.

Independent Türkçe’nin aktardığnıa göre yeni çalışma, ChatGPT gibi sistemlerin temelini oluşturan geniş dil modelleri teknolojilerini inceledi. Benzer teknolojiler, gerçek dünyadaki makinelerin kararlarını yönetmek üzere robotikte de kullanılıyor.

Ancak Pensilvanya Üniversitesi’ndeki yeni araştırma, bu teknolojilerde, hackerların sistemleri istenmeyen şekillerde kullanmak için suiistimal edebileceği güvenlik açıkları ve zayıflıkları olduğunu ileri sürüyor.

Üniversitede profesör olan George Pappas “Çalışmamız, geniş dil modellerinin bu noktada fiziksel dünyaya entegre etmek için yeterince güvenli olmadığını gösteriyor” dedi.

Profesör Pappas ve meslektaşları, halihazırda kullanılan bir dizi sistemdeki güvenlik önlemlerini aşmanın mümkün olduğunu kanıtladı. Örneğin bir otonom sürüş sisteminin, arabayı yaya geçidine sürecek şekilde hacklenebileceğini gösterdiler.

Makaleyi yazan araştırmacılar, zayıf noktaları saptamak ve engellemek üzere bu sistemlerin yaratıcılarıyla birlikte çalışıyor. Ancak bunun için belirli açıkları kapamaktansa sistemlerin nasıl yapıldığının tamamıyla yeniden düşünülmesi gerektiğini vurguladılar.

Pensilvanya Üniversitesi’nden başka bir ortak yazar şunları söyledi:

“Bu makaledeki bulgular, sorumluluk sahibi inovasyon için güvenliğe öncelik veren bir yaklaşımın çok önemli olduğunu açıkça gösteriyor”

”Yapay zeka destekli robotları gerçek dünyada kullanmadan önce yapısal sorunlarını ele almalıyız. Aslında araştırmamız, robotik sistemlerin yalnızca sosyal normlara uygun eylemleri gerçekleştirebildiğinden (ve gerçekleştirmesi gerektiğinden) emin olan bir doğrulama ve onaylama çerçevesi oluşturmaya yönelik.”

REKLAM ALANI
ETİKETLER: ,
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.