Büyük Dil Modelleri (LLM’ler) İçin OWASP Top 10 Riskleri Nelerdir?

tball

Open Worldwide Application Security Project (OWASP), yazılım güvenliği eğitimini ve en iyi uygulamaları destekleme konusunda 20 yılı aşkın deneyime sahip kâr amacı gütmeyen bir kuruluştur.

OWASP nedir?

Owasp amiral gemisi girişimi olan OWASP Top 10, en kritik web uygulaması güvenlik risklerinin düzenli olarak güncellenen bir listesidir.

OWASP, Mayıs 2023'te büyük dil modelleri (LLM'ler) ve üretken yapay zeka ile ilişkili ortaya çıkan riskleri ele almak için Üretken Yapay Zeka Güvenliği Projesini başlattı. Kuruluşlar bu teknolojileri hızla benimsedikçe, hızlı enjeksiyon, veri sızıntısı ve yönetişim riskleri etrafında endişeler arttı. Yapay zeka için sistematik bir güvenlik çerçevesinin olmaması, OWASP'yi riskleri sınıflandıran ve azaltma stratejileri öneren bu projeyi oluşturmaya itti.

Trend Micro, OWASP Üretken Yapay Zeka Güvenliği Projesini Altın Sponsor olarak gururla destekliyor. Yapay zeka teknolojilerinde yaklaşık yirmi yıllık araştırma ve ürün geliştirme süreciyle, yapay zekayla ilgili güvenlik risklerini tanımlayarak ve azaltarak “dijital bilgilerin güvenli bir şekilde alınıp verilebileceği bir dünya yaratma” misyonumuza bağlı kalıyoruz.

“LLM'leri güvence altına almak yalnızca teknolojiyle değil, aynı zamanda yönetişim, şeffaflık ve güvenle de ilgilidir.”

Kaynak: https://www.trendmicro.com/

LLM Uygulamaları için OWASP Top 10 - 2025 

Bu proje kapsamında OWASP, yapay zeka odaklı İlk 10 listesinin birkaç sürümünü yayınladı:

  • Sürüm 0.5 (Mayıs 2023)

  • Sürüm 1.1 (Ekim 2023)

  • Sürüm 2025 (Kasım 2024)

En son sürüm olan LLM Uygulamaları ve Üretken Yapay Zeka için OWASP Top 10, en kritik riskleri, önerilen hafifletmeleri ve örnek saldırı senaryolarını özetliyor. Aşağıda 2025 için En Önemli 10 Riske genel bir bakış bulunmaktadır:

İstem Enjeksiyonu

İstem enjeksiyonu, kullanıcı girişleri bir LLM'nin davranışını veya çıktısını istemeden değiştirdiğinde gerçekleşir. Bu, yönerge ihlallerine, zararlı içerik üretimine, yetkisiz erişime veya kritik kararlar üzerinde etkiye yol açabilir. Geri alma artırmalı oluşturma (RAG) ve ince ayar gibi teknikler, çıktı kalitesini iyileştirmeyi amaçlar, ancak istem enjeksiyonu ile ilgili güvenlik açıklarını tamamen ortadan kaldırmaz.

İnce ayar, özel bilgi eklemek için önceden eğitilmiş genel amaçlı bir modelin etki alanına özel bir veri kümesinde eğitilmesi anlamına gelir.

İstem enjeksiyonu ve jailbreaking birbiriyle yakından ilişkili kavramlardır:

  • İstem enjeksiyonu, yanıtları işlenmiş girdiler yoluyla manipüle eder.

  • Jailbreaking, saldırganların güvenlik protokollerini atladığı bir hızlı enjeksiyon biçimidir.

Sistem istemlerindeki güvenlik önlemleri (uygulamanın amacını tanımlayan talimatlar) yardımcı olabilir, ancak sürekli model eğitimi ve güncellenmiş güvenlik mekanizmaları daha etkilidir.

Hassas Bilgi İfşası

LLM'ler gizli verileri, özel algoritmaları veya diğer hassas bilgileri sızdırır. Çıktılar yetkisiz erişime, gizlilik ihlallerine veya IP ihlaline yol açabilir. Kullanıcılar, daha sonra ifşa edilebileceğinden LLM'lere gizli veri girmekten kaçınmalıdır.

Azaltma stratejileri şunları içerir:

  • Verileri sterilize etmek ve hassas içeriği eğitim setlerinden hariç tutmak.

  • Kullanıcı verileri için açık kullanım koşulları ve devre dışı bırakma mekanizmaları sağlamak.

  • Sistem istemlerine kısıtlamalar eklenmesi (ancak bunlar istem enjeksiyonu yoluyla atlanabilir).

Tedarik Zinciri Güvenlik Açıkları

LLM tedarik zinciri, eğitim verilerini, modellerini ve dağıtım platformlarını etkileyen risklerle karşı karşıyadır. Bunlar, önyargılı çıktılara, ihlallere veya arızalara neden olabilir. Geleneksel yazılımların aksine, LLM riskleri üçüncü taraf önceden eğitilmiş modelleri ve veri setlerini kapsar.

Açık erişimli modeller ve ince ayar yöntemleri (ör. Hugging Face) pozlamayı artırır. Cihazdaki LLM'ler saldırı yüzeyini daha da genişletir.

Eğitim verisi zehirlenmesi

Veri zehirlenmesi, güvenlik açıklarını veya önyargıları ortaya çıkarmak için ön eğitim, ince ayar veya yerleştirme aşamalarını manipüle eder. Bu, performans, etik ve güvenliği düşürebilir.

Riskler şunları içerir:

  • Harici veri kaynaklarında kötü amaçlı içerik.

  • Paylaşılan veya açık kaynaklı modellere gömülmüş kötü amaçlı yazılım [internal link].

  • Belirli girdilerle tetiklenen ve “uyuyan ajanlar” gibi çalışan arka kapılar.

Güvensiz çıktı işleme

LLM çıkışları aşağı akış sistemlerine ulaşmadan önce doğrulanmadığında veya sanitize edilmediğinde, saldırganlar aşağıdaki güvenlik açıklarından faydalanabilir:

  • Cross-Site Scripting (XSS) 

  • Cross-Site Request Forgery (CSRF)

  • Server-Side Request Forgery (SSRF)

  • Ayrıcalık eskalasyonu ve uzaktan kod yürütme

Bu risk, LLM'ler aşırı ayrıcalıklara sahip olduğunda veya üçüncü taraf uzantıları girdi doğrulamasından yoksun olduğunda artar.

Aşırı Yetki

LLM tabanlı sistemler genellikle “agentic” yeteneklere sahiptir; yani işlevleri veya uzantıları dinamik olarak çağırabilirler. Aşırı işlevsellik, izinler veya otonomi, bağlı sistemlere bağlı olarak gizliliği, bütünlüğü ve kullanılabilirliği tehlikeye atabilir.

Sistem İstemi Kaçağı

Sistem, model davranışını yönlendirir, ancak kimlik bilgileri veya bağlantı dizeleri gibi hassas veriler içerebilir. Sızıntı, önlemleri atlamak veya ayrıcalık eskalasyonu gibi saldırıları mümkün kılabilir. Tam bir açıklama yapılmasa bile saldırganlar, etkileşim kalıplarını gözlemleyerek güvenlik önlemlerini (guardrails) çıkarım yoluyla anlayabilir.

Güvensiz Eklenti Tasarımı

RAG tabanlı sistemlerde, vektörlerin ve yerleşimlerin oluşturulması, depolanması veya alınmasındaki güvenlik açıkları, kötü amaçlı içerik enjeksiyonuna, çıkış manipülasyonuna veya yetkisiz veri erişimine izin verebilir.

Aşırı Güven

LLM'ler itibar zedelenmesine veya yasal riske neden olan güvenilir görünen yanlış veya yanıltıcı içerik (halüsinasyonlar) oluşturabilir. Nedenler şunları içerir:

  • Gerçek bir anlayış olmadan istatistiksel boşluk doldurma

  • Önyargı veya eksik eğitim verileri

  • Kullanıcıların doğrulanmamış çıktılarına aşırı güvenmesi

Model hırsızlığı

Kontrolsüz çıkarım talepleri hizmetin reddedilmesine (DoS), finansal kayba, model hırsızlığına veya hizmet kalitesinin düşmesine neden olabilir. Bulut ortamları, yüksek bilgi işlem talepleri nedeniyle özellikle savunmasızdır.

Kuruluşlar LLM'leri nasıl güvence altına alabilir?

Büyük Dil Modellerini (LLM'ler) güvenceye almak, kurumsal iş akışlarının ayrılmaz bir parçası haline gelmeleri nedeniyle kritik öneme sahiptir. Kuruluşlar, sağlam yönetişim, izleme ve teknik güvenlik önlemleri uygulayarak riskleri proaktif olarak ele almalıdır. LLM'ler için OWASP Top 10, uygun şekilde azaltılmadığı takdirde veri sızıntılarına, hızlı enjeksiyon saldırılarına ve yanlış kullanıma yol açabilecek önemli güvenlik açıklarını vurgular.

“OWASP’nin misyonu, bireylerin ve kuruluşların bilinçli kararlar verebilmesi için yazılım güvenliğini görünür kılmaktır.”

Kaynak: https://owasp.org/

Kuruluşların atabileceği temel adımlar:

  • Güçlü Erişim Kontrollerini Uygulayın: Yetkisiz kullanımı önlemek için LLM'lerle kimin etkileşime girebileceğini kısıtlayın ve kimlik doğrulama ve yetkilendirmeyi zorunlu kılın.

  • Girişleri Doğrulayın ve Dezenfekte Edin: Katı girdi doğrulama ve filtreleme uygulayarak istem enjeksiyonunu ve kötü amaçlı talimatları önleyin.

  • Hassas Veriler için Çıkışları İzleyinı: Oluşturulan yanıtlarda gizli veya kişisel olarak tanımlanabilir bilgileri tespit etmek ve redakte etmek için otomatik araçlar kullanın.

  • Hız Sınırlaması ve Kötüye Kullanım Tespiti Uygulayın: Aşırı talepleri sınırlayın ve yanlış kullanımı veya otomatik istismarı gösteren kalıpları izleyin.

  • Model Yönetişimi ve Günlük Kaydı Oluşturun: Denetim ve uyum için etkileşimlerin ayrıntılı günlüklerini tutun ve kabul edilebilir kullanım için açık politikalar tanımlayın.

  • Düzenli Olarak Güncelleyin ve Modellere Yama Uygulayın: Ortaya çıkan güvenlik açıklarını ele almak için LLM çerçevelerini ve bağımlılıklarını güncel tutun.

  • Personeli Güvenli Kullanım Uygulamaları Hakkında Eğitin: İnsan hatasını azaltmak için çalışanları veri sızıntısı ve istem enjeksiyonu gibi riskler konusunda eğitin.

Trend Micro ile Büyük Dil Modeli (LLM) Güvenliğini Güçlendirme

LLM'ler için OWASP Top 10, hızlı enjeksiyon, veri sızıntısı ve güvenli olmayan eklentiler gibi risklere karşı uyarır. Trend Vision One™ kuruluşların bu zorlukları aşağıdakilerle ele almasına yardımcı oluyor:

  • Yapay Zeka Uygulama Güvenliği – Kötü amaçlı istemleri ve eklenti istismarlarını engeller.

  • Sıfır Güven Erişimi – Kesin kimlik ve izinleri uygular.

  • Yapay Zeka Güvenliği Duruş Yönetimi – Yanlış yapılandırmaları ve güvenlik açıklarını tarar.

  • Tehdit İstihbaratı – Yeni ortaya çıkan yapay zekaya özgü saldırıları tespit eder.

  • Merkezi Yönetim: Kullanımı izler ve politikaları uygular.

Trend Vision One™ ile işletmeler, güvende ve uyumlu kalırken LLM'leri güvenle dağıtabilir.

fernando

Ürün Yönetimi Başkan Yardımcısı

pen

Fernando Cardoso, Trend Micro’da Ürün Yönetimi Başkan Yardımcısıdır ve yapay zekâ ile bulutun sürekli gelişen dünyasına odaklanmaktadır. Kariyerine Ağ ve Satış Mühendisi olarak başlayan Fernando, veri merkezleri, bulut, DevOps ve siber güvenlik alanlarında yetkinliğini geliştirmiştir. Bu alanlar, hâlâ tutkusunun kaynağını oluşturmaktadır.

Sıkça Sorulan Sorular (SSS)

Expand all Hide all

Siber güvenlikte OWASP nedir?

add

OWASP, web uygulama güvenliğini küresel olarak iyileştirmek için kaynaklar, araçlar ve kılavuzlar sağlayan açık kaynaklı bir projedir.

OWASP Top 10 Nedir?

add

OWASP Top 10, geliştiriciler için düzenli olarak güncellenen en kritik web uygulaması güvenlik risklerinin bir listesidir.

OWASP Top 10 ne sıklıkla güncellenir?

add

OWASP Top 10, tipik olarak her üç yılda bir güncellenir ve ortaya çıkan tehditleri ve gelişen web uygulaması güvenlik uygulamalarını yansıtır.

OWASP nasıl kullanılır?

add

Web uygulaması güvenlik açıklarını belirlemek, önlemek ve azaltmak için yönergelerini, araçlarını ve en iyi uygulamalarını uygulayarak OWASP'ı kullanın.