Несмотря на то, что случаи утечек данных через нейросети остаются предметом дискуссий и пока не получили окончательного подтверждения, рисковать не стоит, рассказал руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко. Своим мнением он поделился в разговоре с «Лентой.ру».
Эксперт предупредил, что пользователи, загружая конфиденциальную информацию в ChatGPT и другие нейросети, создают потенциальную возможность ее неправомерного использования в будущем. Он напомнил, что технологии постоянно развиваются, и вчерашняя защита может оказаться уязвимой завтра.
«Категорически нельзя загружать данные, которые могут скомпрометировать вас или других людей. К этой категории относятся паспортные данные, сетевые идентификаторы, платежные данные карт, медицинские записи, логины и пароли от сервисов, а также любые другие сведения, позволяющие идентифицировать конкретного человека и потенциально использовать их во вред», — рассказал собеседник «Ленты.ру».
Кузьменко добавил, что наиболее безопасным сценарием общения с нейросетью является использование обезличенных массивов данных. Это означает, отметил он, что перед загрузкой необходимо удалить всю информацию, которая может указать на конкретного человека. Если информация может быть использована против кого-либо, лучше воздержаться от вопроса и решить задачу самостоятельно, заключил эксперт.
Ранее сообщалось, что ChatGPT помог жительнице Уэльса выявить опасную болезнь. ИИ предупредил пользовательницу, что родинка на ее ладони может быть признаком онкологии.