5000 Szolnok, Muskátli u. 2/A

Nem lesz elég nyílt forrásúra sminkelni a mesterséges intelligenciát

Az MI-iparban is működik az úgynevezett open washing, ami már ismerős lehet a nyílt forrású szoftverekkel kapcsolatos korábbi gyakorlatokból.

Az átláthatóság és a szoftverbiztonság eddigi tanulságainak alkalmazása egyre nagyobb jelentőséget kap az MI-rendszerekben, ami egyre látványosabb vitát generál a nyitottság tényleges jelentéséről a mesterséges intelligencia fejlesztésében is. Ahogy az AI News hétfői összeállításából kiderül, a meghatározások egyelőre igen képlékenyek, mivel a modellek számos összetevőből építkeznek: a képzéshez használt adatkészletek, a súlyok, a tanításhoz és teszteléshez használt programok és más tényezők teljes láncának nyílt forrásúnak kellene lennie, hogy magukat a modelleket is nyitottnak nevezhessük, de a fontos piaci szereplők között még nincs összhang ezekben az értelmezésekben.

A cikkben az Endor Labs nyílt forrású biztonsági szolgáltató egyik vezetője felhívja a figyelmet az úgynevezett open washing (kb. nyílttá mázolás) veszélyére. Ez hasonlóan működik például a green washing (zöldre festés) jelenséghez, melynek során marketing- és PR-eszközökkel olyan képet igyekeznek kialakítani a vállalatokról, mintha azok a valóságosnál sokkal többet tennének a környezet védelméért. Maga az open washing a nyílt forrású szoftvereknél is működik, ahol az iparági szereplők átláthatóságról beszélnek, miközben lényeges korlátozásokat alkalmaznak: gondoljunk mondjuk a felhőszolgáltatóknál a nyílt forrású megoldások hozzájárulás nélkül kínált, fizetős verzióira.

A biztonságnak is feltétele az átláthatóság

Az AI News szerint a mesterséges intelligenciával kapcsolatban is hasonló úton járnak az állítólagos nyílt LLM-szolgáltatók, akik a megnyitott forráskódok mellé számos kereskedelmi korlátozást vezetnek be, hogy ezeken keresztül őrizzék versenyelőnyüket. Ellenpéldának az MI-ipar feltörekvő (bár a többieknél nem kevésbé ellentmondásos) szereplőjét, a kínai DeepSeeket hozzák fel, ami másoknál nagyobb átláthatóságot és nyilvános ütemtervet is biztosít hosztolt szolgáltatásait illetően, betekintést nyújtva abba, ahogy finomhangolják és üzemeltetik ezeket a modelleket. Ezzel másoknak is megkönnyítik a rendszerek biztonsági kockázatainak vizsgálatát és a DeepSeek saját verziójának éles futtatását.

A szakértő úgy látja, hogy a DeepSeek átláthatósági kezdeményezései igazodnak a nyílt forrású MI irányába mutató tágabb trendhez. Az IDC adatai alapján a szervezetek 60 százaléka már az ilyen modelleket választja a kereskedelmi alternatívák helyett a generatív MI-projektekhez, az Endor Labs pedig azt tapasztalja, hogy a szervezetek alkalmazásonként átlagosan 7-21 nyílt forrású modellt is felhasználnak. Utóbbiak elterjedése ugyanakkor még szükségessebbé teszi a függőségek értékelését is, ami nemcsak törvényességi megfelelést jelent, hanem (a nyílt forráskódú könyvtárakhoz hasonlóan) a működési kockázatok és az ellátási lánc biztonsági kockázatainak feltárását is egészen a képzési adatoktól kezdve.

Forrás: bitport.hu

Kép forrása: forbes.com