Az Nvidia és a Cisco közösen törekednek arra, hogy fejlesszék a mesterséges intelligencia modellek teljesítményét és hosszú távú fenntarthatóságát.


A gyártók újabb eszközökkel igyekeznek kipofozni az aktuális MI-technológiák véleményes biztonságát és megbízhatóságát, beleértve az MI-alapú "árnyékalkalmazások" kockázatainak kezelését is.

Az Nvidia legutóbbi bejelentésében, amely csütörtökön zajlott, a NeMo Guardrails portfóliójának új kiegészítéseként bemutatta az Nvidia Inference Microservice (NIM) mikroszolgáltatásokat. Ezek a megoldások három alapvető területen segítik elő a chatbotok és autonóm ágensek hatékony és rendeltetésszerű működését. Az első ilyen szolgáltatás, a tartalombiztonsági NIM, célja, hogy megakadályozza az MI-modellek által generált elfogult vagy potenciálisan káros válaszokat. Ehhez a rendszer a bemeneti parancsokat és a kimeneteket együttesen értékeli, a biztonságos és nem biztonságos interakciók körülbelül 33 ezer példányát tartalmazó Aegis Content Safety Dataset alapján.

A csomagban szerepel a topikok irányítására szolgáló NIM, ami a megfelelő fókuszban tartja a beszélgetéseket, elkerülve a kitérőket vagy a nem odaillő tartalmakat a beszélgetést indító és témáját meghatározó rendszerpromptok alapján, akár azt is megakadályozva, hogy maga a felhasználó térítse el ettől a robotot. Ott van aztán a jailbreak észlelésére szolgáló mikroszolgáltatás, ami kifejezetten a felhasználók bemeneteit elemzi, és a nagy nyelvi modellek (LLM-ek) védelmi mechanizmusainak megkerülésére irányuló kísérleteket hivatott kiszűrni, amelyek a fejlesztők szándékával ellentétes viselkedésre vehetik rá az MI-t.

Az Nvidia a fenti eszközök együttes alkalmazásával kezelné a biztonsági hiányosságokat és megfelelőségi kihívásokat, ami azonban az üzemeltetési költségeket vagy a késleltetést is megterheli az általános célú nyelvi feldolgozó modellek esetében. A gyártó ezért ezért kisebb méretű nyelvi modellekre alapozza a szóban forgó védőkorlátokat, amelyek futtatása NIM-ként lényegesen kevesebb erőforrást igényel. Mindez kiegészíti az Nvidia tavaly óta elérhető, nyílt forrású Garak keretrendszerét, ami az MI-sebezhetőségek (adatszivárgások, támadások, hallucinációk) azonosítására és a védőkorlátok hatékonyságának ellenőrzésére szolgál.

Folyamatosan érkeznek a Cisco berendezései is, amelyek új lehetőségeket nyújtanak.

A The Register legfrissebb híradása szerint az Nvidia legújabb bejelentése kapcsán a Cisco AI Defense néven futó informatikai biztonsági termékeiről is szó esik. Ezek a megoldások bizonyos szempontból átfedést mutatnak az Nvidia által kínált modellek teljesítményének ellenőrzésével és a kockázatok felmérésével. Ezen kívül a Cisco tervezi olyan eszközök kifejlesztését is, amelyek lehetővé teszik a biztonsági csapatok számára, hogy nyomon követhessék azokat az "árnyékalkalmazásokat", amelyek más üzleti egységek által kerültek telepítésre, így nem állnak közvetlen felügyelet alatt. A Cisco figyelmeztet, hogy ezek az alkalmazások komoly problémákat okozhatnak, ha nem szabályozzák őket szigorúan a meghatározott keretek között, mivel a felhasználók könnyen hozzáférhetnek a mögöttes szolgáltatásokhoz, például az OpenAI ChatGPT-jéhez.

A cikkben hangsúlyozzák a Security Cloud és a Secure Access szolgáltatások fejlesztését, valamint azokat a jövőbeli terveket, amelyek lehetővé teszik a hálózati adminisztrátorok számára, hogy egyetlen chat-interfészen keresztül érjék el az általuk felügyelt rendszerek komponenseivel kapcsolatos információkat. A Cisco alelnöke beszélt egy több éves ütemtervről, amely az MI-alapú biztonsági eszközök fejlesztésére összpontosít. Ez a megközelítés különösen figyelemre méltó, hiszen a technológiai cégek már most is rengeteg kihívással néznek szembe, és gyakran akadályokba ütköznek a fenyegetések kezelésére szolgáló eszközök implementálása és integrálása terén. Az információk szerint ez a fejlesztés "kijózanító" üzenetet hordoz, amely rávilágít a modern IT környezet komplexitására és a biztonság növelésének sürgősségére.

Related posts