Microsoft ve OpenAI, hackerların saldırıları için ChatGPT’yi kullandıklarını söyledi

Microsoft ve OpenAI bugün, bilgisayar korsanlarının mevcut siber saldırılarını iyileştirmek için ChatGPT gibi büyük dil modellerini kullandıklarını belirtti. Yeni yayınlanan araştırmalarda Microsoft ve OpenAI, Rus, Kuzey Kore, İran ve Çin destekli grupların, hedefleri araştırmak, komut dosyalarını geliştirmek ve sosyal mühendislik teknikleri oluşturmaya yardımcı olmak için ChatGPT gibi araçları kullanma girişimlerini tespit etti.

Microsoft, blog gönderisinde şunları söyledi: “Siber suç grupları, ulus-devlet tehdit aktörleri ve diğer düşmanlar, operasyonlarının potansiyel değerini ve aşmaları gereken güvenlik kontrollerini anlamak amacıyla farklı yapay zeka teknolojilerini araştırıyor ve test ediyor.”

Rus askeri istihbaratına bağlı Stronsiyum grubunun, uydu iletişim protokollerini, radar görüntüleme teknolojilerini ve belirli teknik parametreleri anlamak için büyük dil modellerini (LLM) kullandığı ortaya çıktı. APT28 veya Fancy Bear olarak da bilinen bilgisayar korsanlığı grubu, Rusya’nın Ukrayna’daki savaşı sırasında aktifti ve daha önce de Hillary Clinton’ın 2016’daki başkanlık kampanyasını hedef almıştı.

Grup ayrıca Microsoft’a göre teknik işlemleri potansiyel olarak otomatikleştirmek veya optimize etmek için dosya işleme, veri seçimi, düzenli ifadeler ve çoklu işleme dahil olmak üzere temel komut dosyası oluşturma görevlerine yardımcı olmak için dil modellerini kullanıyor.

Thallium olarak bilinen Kuzey Koreli bir bilgisayar korsan grubu, kamuya bildirilen güvenlik açıklarını araştırmak ve kuruluşları hedef almak, temel komut dosyası yazma görevlerine yardımcı olmak ve kimlik avı kampanyaları için içerik taslağı hazırlamak için LLM’leri kullanıyor. Microsoft, Curium olarak bilinen İranlı grubun aynı zamanda kimlik avı e-postaları oluşturmak ve hatta antivirüs uygulamaları tarafından tespit edilmekten kaçınmak için kod oluşturma amacıyla LLM’leri kullandığını söylüyor. Çin devletine bağlı hackerlar aynı zamanda LLM’leri araştırma, metin yazma, çeviri ve mevcut araçlarını geliştirmek için de kullanıyor.

Özellikle WormGPT ve FraudGPT gibi yapay zeka araçlarının kötü amaçlı e-postaların ve kırma araçlarının oluşturulmasına yardımcı olmak üzere ortaya çıkmasıyla birlikte, yapay zekanın siber saldırılarda kullanımına ilişkin endişeler oluştu. Ulusal Güvenlik Ajansı’ndan üst düzey bir yetkili de geçen ay bilgisayar korsanlarının kimlik avı e-postalarının daha inandırıcı görünmesini sağlamak için yapay zekayı kullandığı konusunda uyardı.

Microsoft ve OpenAI henüz LLM’leri kullanan herhangi bir önemli saldırı tespit etmedi, ancak şirketler bu hacker gruplarıyla ilişkili tüm hesapları ve varlıkları kapatıyor. 

Yapay zekanın siber saldırılarda kullanımı şu anda sınırlı gibi görünse de Microsoft, ses kimliğine bürünme gibi gelecekteki kullanım durumları konusunda uyarıyor: “Yapay zeka destekli dolandırıcılık bir başka kritik sorun. Ses sentezi bunun bir örneği; üç saniyelik bir ses örneğiyle bir model, herhangi biri gibi ses çıkaracak şekilde eğitilebiliyor. Sesli mesajlar gibi zararsız bir şey bile yeterli örnekleme elde etmek için kullanılabilir.”

Doğal olarak Microsoft’un çözümü, yapay zeka saldırılarına yanıt vermek için yapay zekayı kullanıyor. Microsoft’un baş algılama analitiği yöneticisi Homa Hayatyfar, “Yapay zeka, saldırganların daha sofistike saldırılar yapmasına yardımcı olabilir ve bu konuda kullanabilecekleri kaynaklara sahipler” diyor. “Bunu Microsoft’un takip ettiği 300’den fazla tehdit aktöründe gördük. Bu tehditlerden korunmak, tespit etmek ve yanıt vermek için yapay zekayı kullanıyoruz.”

Microsoft, siber güvenlik profesyonellerinin ihlalleri belirlemesi ve siber güvenlik araçları aracılığıyla günlük olarak üretilen büyük miktarlardaki uyarıları ve verileri daha iyi anlamak için yeni bir yapay zeka asistanı olan Security Copilot‘u geliştiriyor. Yazılım devi, büyük Azure bulut saldırılarının ve hatta Rus bilgisayar korsanlarının Microsoft yöneticilerini gözetlemesinin ardından yazılım güvenliğini de elden geçiriyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

x