Додека објавуваше серија податоци за обука со отворен код на GitHub, истражувачкиот тим за вештачка интелигенција на Microsoft случајно објави 38 терабајти дополнителни приватни податоци, вклучително и резервна копија на дискот на работните станици на две вработени.
Резервната копија вклучува тајни, приватни клучеви, лозинки и повеќе од 30.000 внатрешни пораки на Microsoft Teams. Истражувачите ги споделија своите датотеки користејќи ја функцијата Azure наречена SAS токени, која овозможува споделување податоци од сметката на Azure Storage.
Нивото на пристап може да се ограничи само на одредени датотеки. Меѓутоа, во овој случај, врската беше конфигурирана да ја споделува целата сметка за складирање – вклучувајќи уште 38 TB приватни датотеки.
Овој случај е пример за новите ризици со кои се соочуваат организациите кога почнуваат да ја прошируваат нивната употреба на моќта на вештачката интелигенција, бидејќи повеќе од нивните инженери сега работат со огромни количини на податоци за обука.
Додека научниците и инженерите за податоци се тркаат да донесат нови решенија засновани на вештачка интелигенција во производство, огромните количини на податоци со кои ракуваат бараат дополнителни безбедносни проверки и заштитни мерки, пишува Wiz.