This is the Trace Id: 798cfaceb4f0b436c9a2ad9c78a7b73b
Ugrás a tartalomtörzsre Miért érdemes a Microsoft Biztonságot használni? AI-alapú kiberbiztonság Felhőbiztonság Adatbiztonság és cégirányítás Identitás és hálózati hozzáférés Adatvédelem és kockázatkezelés Biztonságos AI Egyesített biztonsági műveletek Teljes felügyelet Microsoft Defender Microsoft Entra Microsoft Intune Microsoft Priva Microsoft Purview Microsoft Sentinel Microsoft Security Copilot Microsoft Entra ID (Azure Active Directory) Microsoft Entra ügynökazonosító Microsoft Entra Külső ID Microsoft Entra ID-kezelés Microsoft Entra ID-védelem Microsoft Entra internet-hozzáférés Microsoft Entra privát hozzáférés Microsoft Entra Engedélykezelés Microsoft Entra Ellenőrzött azonosító Microsoft Entra Számítási feladat ID Microsoft Entra tartományi szolgáltatások Azure Key Vault Microsoft Sentinel Microsoft Defender for Cloud Microsoft Defender XDR Végponthoz készült Microsoft Defender Office 365-höz készült Microsoft Defender Microsoft Defender for Identity Microsoft Defender for Cloud Apps Microsoft Biztonság – kitettségkezelés Microsoft Defender biztonságirés-kezelés Microsoft Defender Intelligens veszélyforrás-felderítés Microsoft Defender-csomag a Vállalati prémium verzióhoz Felhőhöz készült Microsoft Defender Microsoft Defender felhőbiztonsági állapot kezelése Microsoft Defender külső támadásifelület-kezelő Azure Firewall Azure Web App Firewall Azure DDoS Protection GitHub speciális biztonság Végponthoz készült Microsoft Defender Microsoft Defender XDR Microsoft Defender Vállalati verzió A Microsoft Intune alapvető képességei Microsoft Defender for IoT Microsoft Defender biztonságirés-kezelés Microsoft Intune Bővített analitika Microsoft Intune Végponti jogosultságkezelés Microsoft Intune Vállalati alkalmazáskezelés A Microsoft Intune távoli súgója Microsoft Cloud PKI Microsoft Purview Kommunikációmegfelelőség Microsoft Purview Megfelelőségkezelő Microsoft Purview Adatélettartam-kezelés Microsoft Purview Feltárás Microsoft Purview Auditálás Microsoft Priva Kockázatkezelés Microsoft Priva érintettjogi kérelmek Microsoft Purview Adatgazdálkodás Microsoft Purview-csomag a Vállalati prémium verzióhoz A Microsoft Purview adatbiztonsági képességei Árképzés Szolgáltatások Partnerek Kiberbiztonsági tudatosság Ügyfeleink sikertörténetei A biztonsággal kapcsolatos alapismeretek Termék-próbaverziók Iparági elismerés Microsoft Security Insider A Microsoft digitális védelmi jelentése Biztonsági reagálási központ A Microsoft Biztonság blogja A Microsoft biztonsággal kapcsolatos eseményei Microsoft Tech Community Dokumentáció Technikai tartalomtár Képzés és tanúsítványok Megfelelőségi program a Microsoft Cloudhoz Microsoft Adatvédelmi központ Szolgáltatásmegbízhatósági portál Microsoft Biztonságos Jövő Kezdeményezés Üzleti megoldások központja Kapcsolatfelvétel az értékesítéssel Ingyenes próbaidőszak megkezdése Microsoft-biztonság Azure Dynamics 365 Microsoft 365 Microsoft Teams Windows 365 Microsoft AI Azure Space Vegyes valóság Microsoft HoloLens Microsoft Viva Kvantumszámítógép Fenntarthatóság Oktatás Autóipar Pénzügyi szolgáltatások Kormányzat Egészségügy Gyártóipar Kiskereskedelem Partner keresése Legyen a partnerünk! Partner Network Microsoft Marketplace Marketplace Rewards Szoftverfejlesztő vállalatok Blog Microsoft Advertising Fejlesztői központ Dokumentáció Események Licencelés Microsoft Learn Microsoft Research Oldaltérkép megtekintése

Mi az az AI-biztonság?

Megismerheti az AI-biztonság alapjait, és megtudhatja, hogyan védheti meg az AI-rendszereket a potenciális veszélyforrásoktól és biztonsági résektől.

Az AI-biztonság áttekintése


Az AI-biztonság a Mi az a kiberbiztonság?kiberbiztonság AI-rendszerekre vonatkozó ága. Olyan folyamatokra, ajánlott eljárásokra és technológiai megoldásokra utal, amelyek védik az AI-rendszereket a veszélyforrásoktól és a biztonsági résektől. 

Legfontosabb tanulságok

  • Az AI-biztonság védi az AI-adatokat, fenntartja a rendszer integritását, és biztosítja az AI-szolgáltatások rendelkezésre állását.
  • Az AI-rendszereket fenyegető gyakori fenyegetések közé tartozik az adatmérgezés, a modell inverziós támadások és a ellenséges támadások.
  • Az AI-biztonság ajánlott eljárásai közé tartozik az adatok titkosítása, a robusztus tesztelés, az erős hozzáférés-vezérlés és a folyamatos monitorozás.
  • A modern AI biztonsági eszközök, megoldások és keretrendszerek segíthetnek megvédeni az AI-rendszereket a változó fenyegetésektől. 

Mi az az AI-biztonság?

A mesterséges intelligenciával hihetetlen innovációt ért el a világ, példátlan ütemben. Sajnos a kiberbűnözők ugyanolyan gyorsan átvették az AI-technológiát, mint a világ többi része, ami új biztonsági réseket, fenyegetéseket és kihívásokat jelent.

Az AI-biztonság vagy a mesterséges intelligencia biztonsága az AI-rendszerek ezen fenyegetések elleni védelmére szolgáló intézkedésekre és eljárásokra utal. Ahogy a hagyományos informatikai rendszereknek is védelmet kell biztosítaniuk a feltörés, a vírusok és a jogosulatlan hozzáférés ellen, az AI-rendszereknek saját biztonsági intézkedésekre van szükségük, hogy működőképesek, megbízhatóak és védettek maradjanak.

Az AI-biztonság számos okból fontos, többek között az alábbiak miatt:
 
  • Bizalmas adatok védelme. Az AI-rendszerek hatalmas mennyiségű bizalmas adatot dolgoznak fel, beleértve a pénzügyi, orvosi, személyes és pénzügyi adatokat is. 
  • A rendszerintegritás fenntartása. Az AI-rendszerek nem ellenőrzött biztonsági rései feltört modellekhez vezethetnek, ami pontatlan vagy káros eredményeket eredményezhet.
  • AI-szolgáltatások rendelkezésre állásának védelme. A többi szolgáltatáshoz hasonlóan az AI-rendszereknek is elérhetőnek és működőképesnek kell maradniuk, különösen, mivel egyre több ember és szervezet támaszkodik rájuk. A biztonsági incidensek gyakran állásidőt eredményeznek, ami megzavarhatja az alapvető szolgáltatásokat. 
  • Elszámoltathatóság. Ahhoz, hogy a mesterséges intelligenciát globális méretekben lehessen alkalmazni, az embereknek és a szervezeteknek bízniuk kell abban, hogy a mesterséges intelligencia rendszerek biztonságosak és megbízhatóak.

Az AI-biztonság fő fogalmai

  • Titoktartás: Annak biztosítása, hogy a bizalmas adatok csak a jogosult személyek vagy rendszerek számára legyenek elérhetők. 
  • Sértetlenség: Az AI-rendszerek szabatosságának és konzisztenciájának fenntartása.
  • Elérhetőség: Annak biztosítása, hogy az AI-rendszerek továbbra is működőképesek és elérhetők maradjanak. 

  • Elszámoltathatóság: Az AI-rendszerek által végzett műveletek nyomon követésének képessége.
 

AI-biztonság kontra Mesterséges intelligencia kiberbiztonsághoz

Fontos megkülönböztetni két egymással összefüggő, de különböző fogalmat: az AI biztonságot és a kiberbiztonsági AI-t.

Az AI-biztonság maguknak az AI-rendszereknek a védelmére összpontosít. Az AI-biztonság magában foglalja azokat a stratégiákat, eszközöket és eljárásokat, amelyek célja az AI-modellek, -adatok és -algoritmusok fenyegetésekkel szembeni védelme. Ez magában foglalja annak biztosítását, hogy az AI-rendszer a kívánt módon működjön, és hogy a támadók ne tudják kihasználni a biztonsági réseket a kimenetek manipulálására vagy bizalmas információk ellopására.

A mesterséges intelligencia a kiberbiztonsághoz viszont a mesterséges intelligencia eszközeinek és modelljeinek használatára utal, amelyekkel javítható a szervezet azon képessége, hogy felismerje, reagáljon az összes technológiai rendszerét fenyegető veszélyre, és enyhítse azokat. Segítségével a szervezetek hatalmas mennyiségű eseményadatot elemezhetnek, és azonosíthatják a potenciális fenyegetéseket jelző mintákat. A mesterséges intelligencia a kiberbiztonsághoz több forrásból képes elemezni és korrelálni az eseményeket és az adatokat.

Összefoglalva, az AI-biztonság az AI-rendszerek védelméről szól, míg a mesterséges intelligencia a kiberbiztonságért az AI-rendszerek felhasználására utal, hogy javítsa a szervezet biztonsági helyzetét.
A mesterséges intelligenciát fenyegető veszélyforrások

Gyakori AI-biztonsági fenyegetések

Ahogy a vállalatok és egyének egyre szélesebb körben használják az AI-rendszereket, egyre vonzóbb célpontjaivá válnak a Kibertámadásokkibertámadásoknak.

Az AI-rendszerek biztonságát számos fontos veszélyforrás fenyegeti:

Adatmérgezés

Az adatmérgezés akkor fordul elő, ha a támadók rosszindulatú vagy félrevezető adatokat juttatnak be egy AI-rendszer tanítási halmazába. Mivel az AI-modellek csak annyira jók, mint az adatok, amelyeken betanítják őket, az adatok sérülése pontatlan vagy káros kimenetekhez vezethet. 

Modell inverziós támadásai

A modell inverziós támadásai során a támadók egy AI-modell előrejelzéseit használják a modell által betanított bizalmas információk visszafejtésére. Ez olyan bizalmas adatok, például személyes adatok felfedéséhez vezethet, amelyeket nem a nyilvánosság számára szántak. Ezek a támadások jelentős kockázatot jelentenek, különösen akkor, ha olyan AI-modellekről van szó, amelyek érzékeny információkat dolgoznak fel.

Ellenséges támadások

Az ellenséges támadások olyan megtévesztő bemeneteket hoznak létre, amelyek az AI-modelleket téves előrejelzések vagy besorolások készítésére késztetik. Ezekben a támadásokban a látszólag jóindulatú bemenetek, például egy módosított kép vagy hangklip miatt az AI-modell kiszámíthatatlanul viselkedhet. Egy valós példában a kutatók azt mutatták be, hogy a képek finom módosításával hogyan lehet az arcfelismerő rendszereket úgy becsapni, hogy tévesen azonosítják az embereket.

Adatvédelemmel kapcsolatos problémák

Az AI-rendszerek gyakran nagy adathalmazokra támaszkodnak, amelyek közül sok személyes vagy bizalmas adatokat tartalmaz. Az AI-biztonság kritikus fontosságú része az olyan személyek adatainak védelme, akiknek adatait az AI-betanítás során használják fel. Az adatvédelem megsértése akkor fordulhat elő, ha az adatokat nem megfelelően kezelik, tárolják vagy felhasználják olyan módon, amely sérti a felhasználói hozzájárulást.

 Elsietett üzembe helyezések 

A vállalatokra gyakran nagy nyomás nehezedik a gyors innovációk érdekében, ami nem megfelelő teszteléshez, elsietett telepítésekhez és elégtelen biztonsági ellenőrzéshez vezethet. A fejlesztés ütemének ilyen fokozódása néha kritikus sebezhetőségeket hagy figyelmen kívül, ami az AI-rendszer működésbe lépése után biztonsági kockázatokat okoz.

Ellátási lánc biztonsági rései

Az AI ellátási lánc egy összetett ökoszisztéma, amely potenciális biztonsági réseket mutat, amelyek veszélyeztethetik az AI-rendszerek integritását és biztonságát. A külső kódtárak vagy modellek biztonsági rései időnként az AI-rendszereket is kihasználhatóvá teszik. 

Helytelen AI-konfiguráció

Az AI-alkalmazások fejlesztésekor és üzembe helyezésekor a helytelen konfigurációk közvetlen kockázatoknak tehetik ki a szervezeteket, például ha nem valósítják meg az AI-erőforrás identitásszabályozását, illetve közvetett kockázatoknak, például ha az internetről elérhető virtuális gépeknek olyan biztonsági rései vannak, amelyek lehetővé tehetik a támadók számára, hogy hozzáférjenek egy AI-erőforráshoz. 

Parancs injekciók

Egy prompt injection támadás során a hacker egy rosszindulatú bevitelt legitim kérésként jeleníti meg, ami az AI rendszer váratlan műveleteit eredményezi. A megtévesztő parancsok megadásával a támadók az AI-modelleket a bizalmas információkat tartalmazó kimenetek létrehozására késztetik. 

Ajánlott eljárások az AI-rendszerek biztonságossá tételéhez

Az AI-rendszerek biztonságának biztosításához olyan átfogó megközelítésre van szükség, amely a technikai és az üzemeltetési kihívásokat egyaránt kielégíti. Íme néhány ajánlott eljárás az AI-rendszerek biztonságossá tételéhez:

Adatbiztonság

Az AI-modellek betanításához használt adatok sértetlenségének és titkosságának biztosítása érdekében a szervezeteknek megbízható adatbiztonsági intézkedéseket kell alkalmazniuk, többek között a következőket:

  • Bizalmas adatok titkosítása az AI-betanítási adathalmazokhoz való jogosulatlan hozzáférés megakadályozása érdekében.
  • Adatforrások ellenőrzése: fontos meggyőződni arról, hogy a betanításhoz használt adatok megbízható és ellenőrizhető forrásokból származnak, így csökkentve az adatmérgezés kockázatát.
  • Az adatok rendszeres megtisztítása a rosszindulatú vagy nemkívánatos elemek eltávolítása érdekében segíthet csökkenteni az AI biztonsági kockázatait.

Modellbiztonság

Az AI-modellek támadások elleni védelme ugyanolyan fontos, mint az adatok védelme. A modellbiztonság biztosításának fő technikái a következők:

  • A biztonság fenntartása szempontjából kritikus fontosságú az AI-modellek rendszeres tesztelése az ellenséges támadások lehetséges biztonsági réseinek azonosítása érdekében.
  • A különbségi adatvédelem használata, amely megakadályozza, hogy a támadók visszafejtsék a bizalmas adatokat az AI-modellekből.
  • Az ellenséges támadások elleni betanítás implementálása, amely az AI-modelleket olyan algoritmusokra tanítja be, amelyek támadásokat szimulálnak, így gyorsabban azonosíthatják a valódi támadásokat. 

Hozzáférés-vezérlés

Az erős hozzáférés-vezérlési mechanizmusok implementálása biztosítja, hogy csak az arra jogosult személyek használják vagy módosítsák az AI-rendszereket. A szervezeteknek:

  • Szerepköralapú hozzáférés-vezérlést kell alkalmazniuk, hogy a felhasználói szerepkörök alapján korlátozzák az AI-rendszerekhez való hozzáférést.
  • Többtényezős hitelesítés kell implementálniuk, hogy további biztonsági réteget biztosíthassanak az AI-modellek és -adatok eléréséhez.
  • Figyelemmel kell kísérniük és naplózniuk kell az összes hozzáférési kísérletet annak érdekében, hogy a jogosulatlan hozzáférés gyorsan észlelhető és mérsékelhető legyen.

Rendszeres ellenőrzések és figyelés

Az AI-rendszerek folyamatos monitorozása és naplózása elengedhetetlen a lehetséges biztonsági fenyegetések észleléséhez és elhárításához. A szervezeteknek:

  • Rendszeresen naplózniuk kell az AI-rendszereket a rendszerteljesítmény biztonsági réseinek vagy rendellenességeinek azonosítása érdekében. 
  • Automatizált felügyeleti eszközöket kell használniuk a szokatlan viselkedések és hozzáférési minták valós időben történő észlelésére. 
  • Rendszeresen frissíteniük kell az AI-modelleket a biztonsági rések javítása és a felmerülő fenyegetések elleni rugalmasság javítása érdekében. 

Az AI biztonságának javítása a megfelelő eszközökkel

Számos eszköz és technológia segíthet az AI-rendszerek biztonságának javításában. Ezek közé tartoznak a biztonsági keretrendszerek, a titkosítási technikák és a speciális AI biztonsági eszközök.

Biztonsági keretrendszerek

Az NIST AI kockázatkezelési keretrendszerhez hasonló keretrendszerek útmutatást nyújtanak a szervezetek számára az AI-val kapcsolatos kockázatok kezeléséhez és mérsékléséhez. Ezek a keretrendszerek ajánlott eljárásokat kínálnak az AI-rendszerek biztonságossá tételéhez, a lehetséges kockázatok azonosításához és az AI-modellek megbízhatóságának biztosításához.

Titkosítási technikák 

A titkosítási technikák használatával az adatok és az AI-modellek is védve lesznek. A bizalmas adatok titkosításával a szervezetek csökkenthetik az adatszivárgás kockázatát, és biztosíthatják, hogy ay adatok akkor is használhatatlanok maradhassanak, ha a támadók hozzáférnek azokhoz.

AI-biztonsági eszközök

Különböző eszközöket és platformokat fejlesztettek ki az AI-alkalmazások biztonságossá tételéhez. Ezek az eszközök segítenek a szervezeteknek észlelni a biztonsági réseket, figyelni az AI-rendszereket a lehetséges támadások ellen, és kikényszeríteni a biztonsági protokollokat. 

AI-biztonsági megoldások

Mivel az AI biztonsági kihívásai folyamatosan fejlődnek, a szervezeteknek proaktívnak kell maradniuk a biztonsági stratégiáiknak a változó fenyegetésekhez való igazításában, hogy biztosítsák az AI-rendszereik biztonságát és megbízhatóságát. A legfontosabb stratégiák közé tartozik az átfogó biztonsági keretrendszerek bevezetése, a titkosítási technológiákba és a hozzáférés-vezérlésbe való befektetés, valamint az új fenyegetésekről és az új megoldásokról való folyamatos tájékozódás.

A modern AI biztonsági megoldások, amelyek biztonságossá teszik és irányítják a mesterséges intelligenciát, jelentősen növelik a szervezet védelmét az új fenyegetések ellen. Ezeknek a hatékony AI-biztonsági megoldásoknak az integrálásával a szervezetek jobban megvédhetik bizalmas adataikat, fenntarthatják a jogszabályi megfelelőséget, és gondoskodhatnak az AI-környezetek rugalmasságáról a jövőbeli fenyegetésekkel szemben.

GYIK

  • A mesterséges intelligenciával kapcsolatos legfőbb biztonsági kockázatok közé tartozik az adatszivárgás, a modellmanipuláció, az ellenséges támadások és a mesterséges intelligencia rosszindulatú célokra, például adathalászatra való visszaélése.
  • A mesterséges intelligencia védelme magában foglalja a mesterséges intelligencia adatainak, modelljeinek és rendszereinek védelmét a kibertámadásoktól titkosítással, rendszeres teszteléssel, monitorozással és emberi felügyelettel.
  • Az AI-biztonság maguknak az AI-rendszereknek a védelmére összpontosít. Magában foglalja azokat a stratégiákat, eszközöket és eljárásokat, amelyek célja az AI-modellek, -adatok és -algoritmusok fenyegetésekkel szembeni védelme. A mesterséges intelligencia a kiberbiztonsághoz a mesterséges intelligencia eszközeinek és modelljeinek használatára utal, amelyekkel javítható a szervezet azon képessége, hogy felismerje, reagáljon az összes technológiai rendszerét fenyegető veszélyre, és enyhítse azokat.

A Microsoft Biztonság követése