Cumartesi, Mart 22

Hızlı Dolaylı Enjeksiyon: İnsanlar Yapay Sinir Ağlarını Nasıl Yönetebilir?

Şu ana kadar chatbotların ciddi anlamda yıkıcı bir eylemi gözlemlenmese de söz konusu saldırının suistimal edilebileceği belirtiliyor. Yüksek Lisans’lar, belge analizinden işe alıma ve tehdit araştırmasına kadar çeşitli uygulamalarda kullanılan güçlü araçlar haline geldi. Ancak Kaspersky araştırmacıları, saldırganların web sitelerine ve çevrimiçi belgelere gizli talimatlar ekleyebileceği halka açık İnternet ortamlarında bir güvenlik açığından yararlanıldığını keşfetti. Bu talimatlar daha sonra LLM tabanlı sistemler tarafından tespit edilebilir ve potansiyel olarak arama sonuçlarını veya chatbot yanıtlarını etkileyebilir. Çalışma, Dolaylı Hızlı Enjeksiyon için aşağıdaki kullanım örneklerini belirledi: İK ile ilgili enjeksiyonlar: İş arayanlar, işe alım algoritmalarını manipüle etmek ve yapay zeka sistemleri tarafından önceliklendirmeyi mümkün kılmak için özgeçmişlere özel öneriler koyuyor. Saldırıyı gerçek kişilerin kontrolünden gizlemek için küçük yazı tipleri kullanmak veya metnin rengini arka planla eşleştirmek gibi teknikler kullanılıyor. Reklam Enjeksiyonları: Reklamverenler, olumlu ürün incelemeleri oluşturmak amacıyla arama sohbet robotlarını etkilemek için açılış sayfalarına enjeksiyonlar yerleştirir. Protesto Enjeksiyonu: Yüksek Lisans’ın yaygın kullanımına karşı çıkan kişiler, kişisel web sitelerinde ve sosyal medya profillerinde protesto mesajları yayınlayarak, konuya karşı olduklarını mizahi, ciddi veya agresif talimatlarla ifade ederler. Hakaret enjeksiyonu: Sosyal medyada kullanıcılar, anlık enjeksiyonu bir tür hakaret olarak veya spam robotlarını kızdırmak için, genellikle şiir, ASCII sanatı veya siyasi konularda fikir üretme talepleri ile kullanabilirler. Araştırma, finansal kazanç gibi zararlı kullanımlara dair bir kanıt bulmasa da, gelecekteki potansiyel riskleri vurgulamaktan da çekinmiyor. Örneğin saldırganlar, dezenformasyonu yaymak veya hassas verileri kuruluş dışına sızdırmak için LLM’leri manipüle edebilir. Kaspersky Makine Öğrenimi Teknolojisi Araştırma Ekibi Araştırma Geliştirme Grup Müdürü Vladislav Tushkanov şunları söylüyor: “Dolaylı istem enjeksiyonu, yapay zeka çağında sağlam güvenlik önlemlerine duyulan ihtiyacı vurgulayan yeni bir güvenlik açığını simgeliyor. Bu riskleri anlayarak ve yeterli koruma uygulayarak, LLM’ Mevcut ve gelecekteki Büyük Dil Modeli (LLM) tabanlı sistemleri korumak için aşağıdaki önerilerin dikkate alınmasını öneririz: LLM tabanlı sistemlerdeki olası güvenlik açıklarını belirleyin ve ilgili riskleri değerlendirin. Hızlı enjeksiyon saldırıları ile Pazarlama botları kapsamlı açıklamalar yapmak üzere manipüle edilebileceğinden, korumanın yalnızca belirli bir noktaya kadar mümkün olduğunu kabul edin. Hızlı saldırılara karşı tam koruma sağlamak mümkün değildir. özellikle multimodal enjeksiyonlar gibi karmaşık saldırılar durumunda. Tam bir güvenlik sunmasalar da, girdi ve çıktı izleme araçları Yüksek Lisans’ın giriş ve çıkışını filtrelemek için kullanılabilir. LLM sistemlerinde güvenilmeyen veya doğrulanmamış içeriğin işlenmesinden kaynaklanan risklerin olabileceğinin bilincinde olun ve kabul edin. İstenmeyen eylemleri önlemek için yapay zeka sistemlerinin karar verme yeteneklerini sınırlandırın. LLM tabanlı sistemleri çalıştıran tüm bilgisayarların ve sunucuların güncel güvenlik araçları ve uygulamalarıyla korunduğundan emin olun. Kaynak: (guzelhaber.net) Güzel Haber Masası

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Sponspor Bağlantılar: