Google разослал своим сотрудникам предупреждение о необходимости использовать чат-боты с осторожностью, в том числе собственную разработку Bard.
В компании настоятельно попросили сотрудников не делиться конфиденциальными данными с чат-ботами Bard и ChatGPT. В Google пояснили, что возможность ИИ обучаться на запросах и ответах пользователей может привести к утечке определённых данных компании, включая конфиденциальную информацию.
Это предупреждение также касается сотрудников материнской компании Alphabet и всех её других компаний. Уведомление включено в политику защиты информации корпорации.
Вдобавок Google предупредил своих разработчиков, чтобы те избегали прямого использования компьютерного кода, сгенерированного чат-ботами Bard и ChatGPT из-за наличия там возможных закладок или скрытых отсылок к способам передачи определённых данных компании.
В компании выяснили, что другие пользователи могут читать чаты с чат-ботами в определённых условиях, а также у них получается выпросить ИИ воспроизводить данные, которые он получил во время обучения по другим запросам, создавая риск утечки корпоративной информации.
На просьбу СМИ прокомментировать эту ситуацию в Google пояснили, что чат-бот Bard может делать некорректные предложения по коду, но ИИ помогает программистам. В Google также заявили, что компания стремится быть прозрачной в отношении ограничений для своей технологии.
Эксперты пояснили СМИ, что осторожность Google отражает текущую ситуацию на IT-рынке, когда большинство IT-компаний вводят новые стандарты безопасности и стараются предупредить персонал об ответственности при использовании общедоступных чат-ботов.
Источник: habr.com/ru/news/