Zašto su Microsoftovi zaposlenici na kratko ostali bez ChatGPT-a: greška u testiranju ili sigurnosna mjera?

Zašto su Microsoftovi zaposlenici na kratko ostali bez ChatGPT-a: greška u testiranju ili sigurnosna mjera?

U četvrtak je Microsoft, jedan od najvećih svjetskih tehnoloških poduzeća, iznenada onemogućio pristup popularnom alatu ChatGPT svojim zaposlenicima. Ovaj potez izazvao je brojne spekulacije o tome je li u pitanju sigurnosni propust ili jednostavno tehnička pogreška. Kasnije je tvrtka objasnila da je blokada nastala greškom prilikom testiranja internih sustava, ali je istovremeno iskoristila priliku da podsjeti na važnost opreznog korištenja vanjskih umjetničkih inteligencija u poslovnom okruženju.

Razlozi koji su doveli do privremenog prekida rada

Prema podacima koje je prenijela agencija CNBC, Microsoft je privremeno onemogućio pristup ne samo ChatGPT-u, već i drugim alatima temeljenim na velikim jezičnim modelima. Glavni razlog bila je zabrinutost za sigurnost i zaštitu podataka unutar korporacije. Na korporativnim računalima prikazana je poruka o nedostupnosti alata, a snimak zaslona koji je procurio javnosti potvrdio je da je blokada bila široko rasprostranjena.

U početku ni Microsoft ni OpenAI nisu dali službeni komentar, što je dodatno potaknulo medijsku pažnju i raspravu o tome koliko su velike tvrtke spremne riskirati korištenje vanjskih AI servisa u svakodnevnom radu.

Microsoftovo objašnjenje: greška u testiranju kontrolnih sustava

Kada je situacija dobila veći odjek, glasnogovornik Microsofta pojasnio je da je blokada nastala nenamjernom pogreškom tijekom testiranja sustava za upravljanje velikim jezičnim modelima. Prema njegovom izjavom, testiranje je trebalo obuhvatiti kontrolne mehanizme koji sprječavaju neovlašteni pristup, ali je zbog tehničke greške aktivirano ograničenje za sve zaposlenike umjesto samo za odabrane testne grupe.

Nakon što je problem identificiran, tim za tehničku podršku brzo je ispravio postavke i pristup je ponovno omogućen. Microsoft je istaknuo da je ovaj incident pokazao koliko je važno imati jasno definirane i testirane sigurnosne protokole, osobito kada se radi o alatima koji obrađuju osjetljive informacije.

Sigurnosni izazovi i preporučene alternative

Ovaj događaj ponovno je usmjerio pozornost na izazove s kojima se susreću velike organizacije pri uvođenju naprednih AI tehnologija. ChatGPT, koji je do sada privukao više od 100 milijuna korisnika diljem svijeta, temelji se na ogromnim skupovima podataka s interneta i sposoban je generirati odgovore koji izgledaju kao da ih je napisala osoba. Iako je opremljen mehanizmima za sprječavanje zloupotrebe, on ostaje usluga treće strane, što znači da podaci koje zaposlenik unese mogu biti pohranjeni izvan korporativnih granica.

Zbog toga stručnjaci savjetuju sljedeće mjere opreza:

  • Izbjegavanje unosa povjerljivih informacija – podaci o klijentima, poslovnim planovima ili internim procesima ne bi smjeli biti dijeljeni s vanjskim AI alatima.
  • Korištenje internog AI sustava – mnoge tvrtke razvijaju vlastite modele koji rade isključivo na internim serverima, čime se smanjuje rizik od curenja podataka.
  • Redovito ažuriranje sigurnosnih pravila – pravila o korištenju AI alata trebaju se periodično revidirati i prilagođavati novim prijetnjama.
  • E

If you like this post you might also like these

More Reading

Post navigation

Rekord u treningu: Koji su uvjeti za njegov priznavanje?

U svijetu sporta, rekord je najviša ljestvica koju je ikada postigla osoba u određenoj disciplini. Većina nas povezuje te izvanredne rezultate s natjecanjima, ali ponekad se dogodi da sportaš postigne izvanredan rezultat upravo tijekom treninga. Pitanje koje se tada postavlja je: hoće li takav...

Leave a Comment

Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)

back to top