T.C. Mİllî Eğİtİm BakanlIğI
SAMSUN / İLKADIM - Türkiye Odalar ve Borsalar Birliği İlyas Kılıç Mesleki ve Teknik Anadolu Lisesi

KOD HAFTASI (CODE WEEK) için okulumuzun hazırladığı etkinlikler

Okulumuzun Bilişim Teknolojileri BT Rehber öğretmeni Tuğba ÇELİK tarafından Kod Haftası (Code Week) için hazırlanan "Yapay zekanın kullanım alanları ve yaşanabilecek güvenlik sorunları" konulu etkinliğin içeriğini  aşağıdan inceleyebilirsiniz.Tuğba ÇELİK tarafından hazırlanan tüm etkinliklerin bağlantılarına aşağıdan ulaşabilirsiniz.

 

 https://codeweek.eu/view/527741/yapay-zeka-ve-guvenlik

 https://codeweek.eu/view/546454/100-yil-tinkercad-lcd-ekran-kutlama-yazisi

https://codeweek.eu/view/551868/cumhuriyetin-100yili-tinkercad-ile-turk-bayragi-tasarimi

YAPAY ZEKANIN GÜVENLİK RİSKLERİ

 

 

1.GİZLİLİK KAYGILARI

Yapay zeka teknolojileri sıklıkla büyük miktarlarda kişisel verileri toplayıp analiz ederek veri gizliliği ve güvenliğiyle ilgili sorunları gündeme getiriyor. Gizlilik risklerini azaltmak için katı veri koruma düzenlemelerini ve güvenli veri işleme uygulamalarını savunmalıyız.

 

2. GÜVENLİK RİSKLERİ

Bilgisayar korsanları ve kötü niyetli aktörler, daha gelişmiş siber saldırılar geliştirmek, güvenlik önlemlerini atlatmak ve sistemlerdeki güvenlik açıklarından yararlanmak için yapay zekanın gücünden yararlanabilir.

Yapay zeka destekli otonom silahların yükselişi, özellikle kritik karar alma süreçlerinde insan kontrolünün potansiyel kaybı göz önüne alındığında, bu teknolojiyi kullanan haydut devletlerin veya devlet dışı aktörlerin tehlikelerine ilişkin endişeleri de artırıyor.Ayrıca fidye yazılımı ve kimlik avı saldırısı tekniklerini üretken yapay zeka ile geliştirerek optimize edebilirler. 

Kötü amaçlı yazılımlar ve fidye yazılımları yıllardır BT sistemlerini rahatsız ediyor ve hatta yapay zeka platformları da bu saldırılara maruz kalabiliyor. Aslında yapay zeka, kötü amaçlı yazılım üretme maliyetini düşürür, böylece saldırganlar kötü amaçlı yazılımın yeni türlerini daha hızlı, daha ucuz ve daha az beceriyle dağıtabilir. Herhangi bir çözümün riskleri şunları içerir:

  • Meşru erişimi önlemek için verilerin şifrelenmesi veya ağların aşırı yüklenmesi nedeniyle hizmetlerin kesintiye uğraması
  • Kripto madenciliği veya botnet saldırısı için kullanılacak kaynakların ele geçirilmesi
  • Ağınıza girip zarar vermek için halka açık yapay zeka platformlarından yararlanmak

 

Gelecekteki yapay zeka destekli araçlar, giriş seviyesi programlama becerisine sahip geliştiricilerin, gelişmiş kötü amaçlı botlar gibi otomatikleştirilmiş kötü amaçlı yazılımlar oluşturmasına olanak tanıyabilir. 

Yapay zeka ve makine öğrenimi, iş yükünün büyük bir bölümünü üstlenebileceğinden ve bunu otomatik olarak yapabileceğinden, çabaları büyük ölçüde otomatikleşeceğinden saldırganlar bundan faydalanacaktır.

Bugüne kadar yapay zekanın saldırı amacıyla kamuya açıklanan kullanımı, güvenlik açıklarını bularak ve çözümler önererek güvenliği artırmayı amaçlayan "beyaz şapkalı" araştırmacıların deneyleriyle sınırlıydı. Bununla birlikte, yapay zekadaki ilerlemenin hızı, henüz yapmamışlarsa bile, yakında makine öğrenimi yeteneklerinden yararlanan siber saldırıların olasılığını akla getiriyor.

Bu, akıllı buzdolapları, bebek telsizleri ve ev asistanları gibi Nesnelerin İnterneti (IoT) kullanan ev aletlerine yönelik potansiyel tehditlere işaret ediyor.

Çünkü IoT cihazlarında güvenlik çok zayıf (ve çoğu zaman mevcut değil) Dış bağlantı(open_in_new), kötü amaçlı yazılımları barındırmak ve yaymak için mükemmeldirler. Aynı nedenden ötürü, hedeflenen web sitelerini veya çevrimiçi sunucuları devre dışı bırakmak için DDoS (dağıtılmış hizmet reddi) saldırılarında sıklıkla kullanılırlar.

 

3. GÜÇ YOĞUNLAŞMASI

Yapay zeka gelişiminin az sayıda büyük şirket ve hükümet tarafından kontrol altına alınması riski, yapay zeka uygulamalarındaki eşitsizliği artırabilir ve çeşitliliği sınırlayabilir. Merkezi olmayan ve işbirliğine dayalı yapay zeka gelişimini teşvik etmek, güç yoğunlaşmasını önlemenin anahtarıdır.

 

4.YASAL VE DÜZENLEYİCİ ZORLUKLAR

Sorumluluk ve fikri mülkiyet hakları da dahil olmak üzere yapay zeka teknolojilerinden kaynaklanan benzersiz sorunları ele almak için yeni yasal çerçeveler ve düzenlemeler geliştirmek çok önemlidir. Hukuk sistemlerinin teknolojik gelişmelere ayak uyduracak ve herkesin haklarını koruyacak şekilde gelişmesi gerekiyor.

 

5.YAPAY ZEKA SİLAHLANMA YARIŞI

Ülkelerin yapay zeka silahlanma yarışına girme riski, yapay zeka teknolojilerinin hızlı bir şekilde gelişmesine ve potansiyel olarak zararlı sonuçlara yol açabilir.

 

6. YANLIŞ BİLGİ VE MANİPÜLASYON

Deepfake gibi yapay zeka tarafından oluşturulan içerikler, yanlış bilgilerin yayılmasına ve kamuoyunun manipülasyonuna katkıda bulunuyor. Yapay zeka tarafından üretilen yanlış bilgileri tespit etme ve bunlarla mücadele etme çabaları, dijital çağda bilgilerin bütünlüğünün korunması açısından kritik öneme sahiptir.

Deepfake videolardan, fikir birliği numarası yaparak ve sahte haberler yayarak kamusal söylemi manipüle eden çevrimiçi botlara kadar, yapay zeka sistemlerinin toplumsal güveni baltalama tehlikesi var. Teknoloji; suçlular, haydut devletler, aşırı ideolojik kişiler ya da sadece özel çıkar grupları tarafından ekonomik kazanç ya da siyasi avantaj elde etmek amacıyla insanları manipüle etmek amacıyla kullanılabilir.

 

7.İSTENMEYEN SONUÇLAR

Yapay zeka sistemleri, karmaşıklıkları ve insan gözetiminin eksikliği nedeniyle beklenmedik davranışlar sergileyebilir veya öngörülemeyen sonuçları olan kararlar alabilir. Bu öngörülemezlik; bireyleri, işletmeleri veya bir bütün olarak toplumu olumsuz etkileyen sonuçlara yol açabilir.

 

8.FİZİKSEL GÜVENLİK 

Otonom araçlar, üretim ve inşaat ekipmanları ve tıbbi sistemler gibi daha fazla sistem yapay zekayı kullandıkça, yapay zekanın fiziksel güvenliğe yönelik riskleri artabilir. Örneğin, siber güvenlik ihlaline maruz kalan yapay zeka tabanlı gerçek sürücüsüz bir araba, yolcularının fiziksel güvenliği açısından risklere yol açabilir. Benzer şekilde, bir inşaat sahasındaki bakım araçlarına ilişkin veri seti, bir saldırgan tarafından tehlikeli koşullar yaratacak şekilde manipüle edilebilir.

 

9.KİMLİĞE BÜRÜNME 

Doğru çekimle herkes ücretsiz uygulamaları kullanarak deepfake çekimler yapabilir. İnsanlar ayrıca, yalnızca birkaç saniyelik ses ile eğitilmiş, olağanüstü derecede gerçekçi sahte sesler oluşturmak için yapay zeka destekli ücretsiz araçları da kullanabilirler.

Bu nedenle yapay zekanın artık sanal adam kaçırma dolandırıcılığı için kullanılması sürpriz olmamalı .Bir ebeveynin en kötü kabusu, kızının onu arayıp bağırıp hıçkırarak ağlamasıyla yaşadı. Sesinin yerini, 1 milyon dolarlık fidye ödenmediği takdirde onu uyuşturmakla ve taciz etmekle tehdit eden bir adam aldı.Uzmanlar sesin yapay zeka tarafından üretildiğini düşünüyor. Kolluk kuvvetleri, sanal adam kaçırma planlarına ek olarak, yapay zekanın gelecekte büyükbaba dolandırıcılığı da dahil olmak üzere diğer kimliğe bürünme dolandırıcılığı türlerinde suçlulara yardımcı olabileceğine inanıyor.

Üretken yapay zeka aynı zamanda düşünce liderlerinin sesiyle de metin üretebilir. Siber suçlular bu metni, e-posta veya Twitter gibi sosyal medya platformları üzerinden sahte hediyeler, yatırım fırsatları ve bağışlar gibi farklı türde dolandırıcılıklar yürütmek için kullanabilir.

 

10.YAPAY ZEKA ŞEFFAFLIĞININ VE AÇIKLANABİLİRLİĞİNİN EKSİKLİĞİ 

Doğrudan teknolojiyle çalışanlar için bile yapay zeka ve derin öğrenme modellerini anlamak zor olabilir . Bu, yapay zekanın nasıl ve neden sonuçlara vardığına dair şeffaflığın eksikliğine yol açarak, yapay zeka algoritmalarının hangi verileri kullandığına veya neden önyargılı veya güvensiz kararlar alabileceğine dair açıklama eksikliği yaratıyor.

 

11.YZ ALGORİTMALARI YOLUYLA SOSYAL MANİPÜLASYON

Sosyal manipülasyon aynı zamanda yapay zekanın tehlikesi olarak da karşımıza çıkıyor.  Çevrimiçi medya ve haberler, yapay zeka tarafından oluşturulan görseller ve videolar, yapay zeka ses değiştiricilerinin yanı sıra siyasi ve sosyal alanlara sızan derin sahtekarlıklar ışığında daha da karanlık hale geldi  . Bu teknolojiler gerçekçi fotoğraflar, videolar, ses klipleri oluşturmayı veya mevcut bir resim veya videodaki bir figürün görüntüsünü diğeriyle değiştirmeyi kolaylaştırır. Sonuç olarak, kötü aktörler yanlış bilgi ve savaş propagandası paylaşmak için başka bir yola sahip oluyor ve bu da güvenilir ve hatalı haberleri ayırt etmenin  neredeyse imkansız olduğu bir kabus senaryosu yaratıyor .

 

12.YZ TEKNOLOJİSİ İLE SOSYAL GÖZETİM

Başlıca örneği Çin'in ofislerde, okullarda ve diğer mekanlarda yüz tanıma teknolojisini kullanmasıdır. Çin hükümeti, bir kişinin hareketlerini takip etmenin yanı sıra, bir kişinin faaliyetlerini, ilişkilerini ve siyasi görüşlerini izlemek için yeterli veri toplayabilir. 

Bir başka örnek de ABD polis departmanlarının suçların nerede meydana geleceğini tahmin etmek için tahmine dayalı polislik algoritmalarını benimsemesidir. Polis departmanları daha sonra bu topluluklara daha fazla ağırlık veriyor ve bu da aşırı polislik yapılmasına ve kendi kendini demokrasi ilan etmiş ülkelerin yapay zekayı otoriter bir silaha dönüştürmeye direnip direnemeyeceğine dair sorulara yol açıyor.

 

13.YAPAY ZEKA ARAÇLARINI KULLANARAK VERİ GİZLİLİĞİNİN EKSİKLİĞİ

Bir yapay zeka sohbet robotuyla oynadıysanız veya çevrimiçi bir yapay zeka yüz filtresini denediyseniz verileriniz toplanıyor; ancak nereye gidiyor ve nasıl kullanılıyor? Yapay zeka sistemleri genellikle kullanıcı deneyimlerini özelleştirmek veya kullandığınız yapay zeka modellerini eğitmeye yardımcı olmak için (özellikle yapay zeka aracı ücretsizse) kişisel verileri toplar . 2023'te ChatGPT'de meydana gelen bir hata olayı "bazı kullanıcıların başka bir aktif kullanıcının sohbet geçmişindeki başlıkları görmesine izin verdiğinden", veriler bir yapay zeka sistemine verildiğinde diğer kullanıcılar için güvenli bile sayılmayabilir . 

Veri ihlalleri, kişisel olarak tanımlanabilir bilgiler, finansal veriler ve sağlık kayıtları gibi çok miktarda gizli veya hassas veriyi depolayan ve işleyen yapay zeka platformları için önemli bir siber güvenlik riski oluşturmaktadır.

Yapay zeka platformlarındaki veri ihlallerine çeşitli risk faktörleri katkıda bulunabilir. Verileri işleyen ve analiz eden yapay zeka örnekleri, dahili olarak zayıf güvenlik protokolleri, yetersiz şifreleme, yeterli izleme eksikliği, gevşek erişim kontrolleri ve dahili tehditler nedeniyle savunmasız olabilir. Dışarıdan, yapay zeka çözümleri ve platformları çeşitli güvenlik risklerine karşı savunmasız olabilir ve özellikle bu platformlarla etkileşimde bulunmak için kullanılan veriler günlüğe kaydediliyor veya depolanıyorsa veri hırsızlığının hedefi olabilir.

 

14.KONTROL EDİLEMEYEN, KENDİNİ BİLEN YAPAY ZEKA

Yapay zekanın zeka konusunda çok hızlı ilerleyerek duyarlı hale geleceği ve muhtemelen kötü niyetli bir şekilde insanların kontrolü dışında hareket edeceği endişesi de ortaya çıkıyor. Bu duyarlılığa ilişkin iddia edilen raporlar zaten ortaya çıkıyor; popüler bir hesap, AI sohbet robotu LaMDA'nın duyarlı olduğunu ve onunla tıpkı bir insanın yapacağı gibi konuştuğunu belirten  bir  mühendise ait . 

 

15.YAPAY ZEKA ALTYAPISINDAKİ GÜVENLİK AÇIKLARI

 

Tüm yazılımlar gibi yapay zeka çözümleri de saldırganların hedef alabileceği yazılım, donanım ve ağ bileşenlerine dayanır. Geleneksel saldırı vektörlerine ek olarak yapay zeka, bulut tabanlı yapay zeka hizmetleri, grafik işleme birimleri (GPU'lar) ve tensör işleme birimleri (TPU'lar) aracılığıyla hedeflenebilir.

 

GPU'lar ve TPU'lar yapay zeka iş yüklerini hızlandırmak için tasarlanmış özel işlemcilerdir ve yeni saldırı vektörleri sunabilirler. İşlemcilerdeki ve diğer donanımlardaki tasarım kusurları bir dizi ürünü etkileyebilir. Örneğin, Row Hammer (veya Rowhammer) kusuru, akıllı telefonlar ve diğer cihazlardaki dinamik rastgele erişimli bellek yongalarını etkiliyor. Saldırganlar, sanallaştırılmış ortamlarda bellek tekilleştirmesini manipüle etmek ve hedefin kriptografik anahtarlarını veya diğer hassas verilerini tehlikeye atmak için Row çekiç kusurunda "Flip Feng Shui" tekniğini kullanabilir.

 

Yapay zeka çözümleri aynı zamanda daha geleneksel saldırıların kurbanı olabilecek diğer bileşenler üzerine kuruludur ve onlarla entegredir. Yazılım yığınındaki riskler, hizmet reddini tetikleyebilir, hassas verilere yetkisiz erişim sağlayabilir veya dahili ağınıza etki edebilir. 

 

 

 

16.MODEL ZEHİRLENMESİ

 

Çekişmeli saldırılar, üretim ortamlarındaki yapay zeka modellerini veya sistemlerini hedef alırken, model zehirleme saldırıları, geliştirme veya test ortamındaki yapay zeka modellerini hedef alır. Model zehirlenmesinde saldırganlar, çıktıyı etkilemek için eğitim verilerine kötü amaçlı veriler katar ve bazen yapay zeka modelinden önemli bir davranış sapmasına neden olur.

 

Örneğin, başarılı bir model zehirlenmesi saldırısından sonra, bir yapay zeka modeli yanlış veya önyargılı tahminler üretebilir ve bu da hatalı veya adaletsiz karar alınmasına yol açabilir. Bazı kuruluşlar, dahili veya özel verileriyle ilgili belirli sorunları çözmek için kapalı büyük dil modeli (LLM) yapay zekasının eğitimine yatırım yapıyor. Bu uygulamalar, uygun güvenlik kontrolleri ve önlemleri alınmadığı takdirde model zehirlenmesi saldırılarından ciddi hasara maruz kalabilir.

 

Model zehirlenmesi saldırılarının tespit edilmesi zor olabilir çünkü zehirlenen veriler insan gözüne zararsız olabilir. Çoğu çözümde olduğu gibi, açık kaynak veya diğer harici bileşenleri içeren yapay zeka çözümleri için de algılama karmaşıktır.

 

 

 17.ÇEVRİMİÇİ SİSTEM MANİPÜLASYONU

İnternet, AI/ML sistemlerinin geliştirilmesi için çok önemlidir ve birçok makine, öğrenme süreci sırasında internete bağlı olduğundan, onları saldırılara karşı savunmasız hale getirir. Bilgisayar korsanları, sisteme yanlış girdiler sağlayarak veya sistemi hatalı çıktılar üretecek şekilde kademeli olarak değiştirerek bu güvenlik açığından yararlanabilir. Bu tür saldırıları önlemek için bilim insanları ve mühendisler, sistem operasyonlarının güçlendirilmesi ve güvenliğinin sağlanması, veri sahipliğine ilişkin kayıtların tutulması gibi önlemler alabilir.

 

Paylaş Facebook  Paylaş twitter  Paylaş google  Paylaş linkedin
Yayın: 13.10.2023 - Güncelleme: 16.10.2023 10:45 - Görüntülenme: 103
  Beğen | 0  kişi beğendi