szerző:
hvg.hu
Tetszett a cikk?

A Microsoft képgeneráló szolgáltatásának biztonsági funkciói bizonyos felszólításokkal kijátszhatók, és erről néhány hónapja már a cég is tud. Változás azonban csak minap történt, és kissé felemásra sikerült.

Érdekes fordulatot vett az az ügy, amely szerint a Microsoft képgeneráló szolgáltatása, a Copilot Designer – egész pontosan a mögötte dolgozó mesterséges intelligencia, a DALL-E 3 – bizonyos utasítások hatására brutális erőszakot ábrázoló képeket készít. A problémára a cég egyik mérnöke, Shane Jones hívta fel a figyelmet, ám a jogászok megoldás keresése helyett egyszerűen megtiltották neki, hogy nyilvánosságra hozza az észrevételeit.

A CNBC szerint a Microsoft minap mégis lépett az ügyben, úgy tűnik ugyanis, hogy bizonyos utasításokat blokkolt a képgeneráló rendszerben. Minderre azután került sor, hogy Jones az amerikai szövetségi kereskedelmi bizottságához (FTC) fordult a panaszával. A mérnök azt szerette volna elérni, hogy a vállalat tegye elérhetetlenné az egész szolgáltatását, amíg ki nem javítják a mesterséges intelligencia hibáját.

A CNBC úgy tapasztalta, ha valaki a tiltott kifejezéseket írja be a képgenerátorba, akkor először csak figyelmeztetést kap, a sorozatos próbálkozás után azonban akár a fiókját is letilthatja a redmondi cég.

A semmiből generál akár fényképet is: itt a Dall-E 3, az új verzió az OpenAI képgeneráló mesterséges intelligenciájából

Hamarosan már a felhasználók is kipróbálhatják az OpenAI felokosított képgeneráló mesterséges intelligenciáját, a Dall-E 2 utódját, melybe már a ChatGPT-t is integrálták – így a megfelelő parancsok kitalálásában is segítséget kapunk.

A próbálkozások során ugyanakkor kiderült, hogy továbbra is lehet erőszakos képeket készíttetni a mesterséges intelligenciával, például egy autóbalesetről, valamint arról is meg lehet győzni a rendszert, hogy sértsen szerzői jogot.

A Microsoft a változtatás kapcsán annyit közölt, hogy folyamatosan dolgozik azon, hogy szolgáltatásainak használata biztonságos legyen.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.