OpenAI пропонує користувачам до 20 тис дол за виявлені баги в ChatGPT
Категорія
Технології
Дата публікації

OpenAI пропонує користувачам до 20 тис дол за виявлені баги в ChatGPT

OpenAI пропонує користувачам до 20 тис дол за виявлені баги в ChatGPT
Джерело:  online.ua

Користувачі, які виявили вразливості в системах штучного інтелекту ChatGPT OpenAI, можуть отримати до 20 000 доларів від компанії-розробника.

Джерело: Reuters

OpenAI пропонує користувачам до 20 тис дол за виявлені баги в ChatGPT

Програма OpenAI Bug Bounty, яка стартувала у вівторок, буде пропонувати винагороду користувачам залежно від серйозності помилок, про які повідомляють, з винагородою від $200 за вразливість.

Технологічні компанії часто використовують програми винагороди за виправлення помилок, щоб заохотити програмістів та "білих" хакерів повідомляти про помилки у своїх програмних системах. Згідно з інформацією на платформі баг-баунті Bugcrowd, OpenAI запросила дослідників переглянути певну функціональність ChatGPT та структуру того, як системи OpenAI взаємодіють та обмінюються даними зі сторонніми додатками, - пише агентство.

Це рішення було прийнято через кілька днів після того, як ChatGPT був заборонений в Італії за підозрою в порушенні правил конфіденційності, що спонукало регуляторів в інших європейських країнах уважніше вивчити послуги генеративного ШІ.

Samsung зіткнувся з масштабним витоком даних через ChatGPT

Як з’ясувалося, керівництво компанії дало дозвіл інженерам одного зі своїх відділів застосовувати ChatGPT для виконання важливих робочих завдань.

Це закінчилося тим, що за 20 днів використання чатбота відбулося аж три витоки інформації.

За словами журналістів, один зі співробітників Samsung відправив код штучному інтелекту ChatGPT і звернувся до нього для його перевірки.

Дані одразу ж стали частиною бази чатбота і його внутрішньої інформації.Інший працівник також спробував оптимізувати код подібним способом. Третій інцидент стався, коли співробітник компанії попросив ШІ скласти протокол закритої зустрічі в компанії.

Читайте також:

Залишаючись на онлайні ви даєте згоду на використання файлів cookies, які допомагають нам зробити ваше перебування тут ще зручнішим

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?