Последние новости

Реклама

Ещё десять лет назад фильмы о нейросети, которая контролирует буквально все сферы жизни и способна решать вопросы за человека, казались фантастикой. Если такое и будет, то очень и очень нескоро, говорили скептики. И были не правы, сообщает издание «Комсомольская Правда».

Прямо сейчас нейросети активно присутствуют в нашей жизни. Чат-боты ведут переписку с клиентами, решая рутинные задачи. Искусственный интеллект теперь может вести диалог, при этом сразу не разобрать, звонит ли реальный человек или «бездушная машина».

Пожалуй, слово «бездушная» здесь не совсем уместно, ИИ очень быстро учится, так что простой «железякой» данную новую реальность теперь точно не назвать. С каждым днём нейросети узнают новое, они пробуют писать тексты (и с каждой попыткой у них получается все лучше), общаются на разных языках, сочиняют музыку, красиво рисуют и делают ещё много чего интересного и полезного.

Однако есть у такого развития, безусловно, и обратная сторона, которую имеют все блага цивилизации. Когда-то телефон и интернет облегчили жизнь человека, однако они же стали инструментами в руках мошенников. Так же происходит и с ИИ. Прямо сейчас киберпреступники применяют алгоритмы машинного обучения и используют нейронные сети, чтобы получить доступ к личной информации людей.

Как мошенники имеют возможность использовать ИИ:

1. При помощи искусственного интеллекта бандиты имеют возможность делать фальшивые документы: нейросеть способна подделать банковские выписки, нарисовать фальшивый паспорт или водительское удостоверение.

2. Мошенники имеют возможность использовать нейросети для создания фейковых новостей и рассылок. В них включаются различные ссылки на ресурсы, при переходе по которым можно оставить данные своей банковской карты или другую персональную информацию.

3. Нейросети позволяют создавать фальшивые отзывы и рейтинги.

4. Чат-боты имеют возможность придумать сценарий для телефонного звонка и облегчить работу бандитам.

5. Нейросети учатся поддерживать разговор. ИИ может взять на себя роль мнимых сотрудников контакт-центров банков и прочих организаций, которыми представляются мошенники для обмана свои жертв.

6. ИИ может создавать «клон» голоса человека (deepfake). С учетом развития биометрии и возможности оформить кредит по звонку (современные технологии идентифицируют человека по тембру голоса), нейросети на службе у мошенников имеют возможность доставить немало бед. Ведь deepfake будет иметь стопроцентную схожесть с оригиналом, а значит, жертва рискует остаться в должниках, ничего об этом не зная.

7. Нейросети мастерски умеют создавать картины и иллюстрации. А это значит, что подобные изображения легко используются для фейковых сборов. Так что перед тем, как отправить кому-то финансовую помощь, стоит проверить в иных соцсетях и интернете «реальность» адресата.

Также бандиты имеют возможность использовать и другую схему мошенничества. В частности, предложить «облегчить» доступ к популярной иностранной нейросети с использованием специального сервиса или приложения. В свою очередь, ссылка на сервис может вести на фишинговый ресурс, который предложит заполнить форму с данными для оплаты, либо на вредоносную программу, к примеру, удаленного управления устройством, при установке которой бандиты получают полный контроль над гаджетом пользователя. В конечном итоге все это приведет к потере денежных средств.

«Успешность такой технологии зависит от того, насколько хорошо искусственный интеллект будет обучен и насколько убедительно он будет выдавать себя за человека», - говорит Дмитрий Миклухо, старший вице-президент – директор департамента информационной безопасности ПСБ. Эксперт дал советы, как защитить свои персональные данные в мошеннических схемах с использованием ИИ.

В этом вопросе, как и много лет назад, когда развивалось мошенничество в Сети, стоит руководствоваться именно здравым смыслом и перепроверять поступающую информацию.

Правило первое: требуется быть острожным при вводе личной информации на веб-сайтах и не открывать подозрительные электронные письма.

Правило второе: лично проверять всю информацию, поступающую от друзей или родственников в соцсетях и мессенджерах. То есть, если подруга вдруг попросила денег, чтобы оплатить посылку, лучше перезвонить и услышать просьбу в разговоре.

Правило третье: в социальных сетях нельзя давать никакой личной информации незнакомым людям. Это может стать ключиком для дальнейшего удачного обмана.

Правило четвертое: важно использовать антивирусное программное обеспечение и систематически обновлять его, чтобы защитить свой компьютер от вредоносных программ.

Правило пятое: если в ходе общения в мессенджере бот или робот предлагает ввести личную финансовую информацию (коды из смс от банка, полные данные карты, ФИО, паспортные данные и т. д.) требуется прервать общение, обратиться в отделение банка либо самостоятельно связаться с организацией по контактам, которые указаны на официальном сайте компании.

Правило шестое: если вы решили самостоятельно воспользоваться услугами нейросети, убедитесь, что и вправду оказались на официальном ресурсе. Не переходите по сомнительным ссылкам, предлагающим ввести данные для оплаты и не устанавливайте на свои устройства неизвестные приложения.

;

Тоже важно:

Комментарии:






* Все буквы - латиница, верхний регистр

* Звёздочкой отмечены обязательные для заполнения поля