Как ИИ может испортить вам жизнь, помимо безработицы

Как только ИИ стал доступен широкому кругу пользователей, его возможности тут же начали тестировать не только обыватели, но и профессионалы из разных сфер. Но у этого инструмента, как и у любого другого, есть не только преимущества, но и недостатки. «Пристально смотрите на солнце в течение 5-30 минут, и это будет полезно для здоровья» — такие советы иной раз сегодня выдаёт. И уже есть люди, которые пострадали от контента, сгенерированного с применением нейросетей. О потенциальном вреде применения искусственного интеллекта в разных сферах, об ограничениях и запретах на генерацию контента нейросетями рассказала основатель маркетингового агентства PRO M8 Регина Яковлева.

Сферы, в которых генерация контента может нанести вред здоровью и жизни людей

Нейросети упрощают и облегчают работу многих профессионалов. Они уже нашли свое применение, к примеру, в медицине, логистике, сельском хозяйстве, науке и многих других областях. Но в отдельных сферах к их использованию нужно подходить с осторожностью.

Использование ИИ в медицине: первые успехи и неудачи

В 2019 году международная группа исследователей разработала и протестировала систему, использующую ИИ для диагностики рака груди. Анализируя маммограммы, алгоритм определял, есть ли у пациента такое заболевание. Система показала высокую точность в постановке диагноза (94,5%), но оказалась несовершенной.

Еще один любопытный эксперимент с привлечением ИИ к диагностике рака показал хорошие предварительные результаты. Ранее для изучения опухоли и установления ее границ с нормальной тканью приходилось довольно долго ждать. ИИ смог провести диагностику за 3 минуты. Врачи надеются, что это в дальнейшем может стать прорывом, и все нужные действия по удалению опухоли можно будет проводить в 1 операцию, а не в 2-3.

ИИ умеет быстро диагностировать заболевания на основе типичных симпотомов, но выводы, к которым приходит нейросеть, нужно многократно перепроверять врачам
abireg.ru

Но, несмотря на такие многообещающие результаты, нужно помнить: хотя ИИ ошибается в небольшом количестве случаев, за каждым из них стоит человеческая судьба, здоровье и жизнь.

Медицинские советы от ИИ Microsoft Copilot оказались смертельно опасны

Из-за неправильной интерпретации или игнорирования клинического контекста нейросетью кто-то может начать ненужное ему агрессивное лечение с серьезными побочными эффектами, а кто-то станет заниматься здоровьем слишком поздно. Каждый диагноз, выставляемый ИИ, должен быть перепроверен реальным врачом.

Дипфейки — от шуток до ударов по репутации и общественных волнений

ИИ активно используют для синтеза человеческого голоса и изображения. Видео, созданные с использованием нейросети, настолько реалистичные, что сходу можно и не понять, что это дипфейки. И овладеть технологией их создания может даже человек без большого багажа специализированных знаний и умений.

Некоторые пользователи используют ИИ для шуток над друзьями или для генерации коммерческого контента. При этом доступность технологии уже породила массу скандальных ситуаций — например, Том Хэнкс появился в рекламе стоматологии, но никто не согласовал с ним ее содержание. Гонорара, конечно же, актер тоже не получил. Взяли на вооружение дипфейки и мошенники. Они подделывают голос и изображение на видео, чтобы представляться другими людьми или же ставить жертву в неловкое положение (и шантажировать ее созданными материалами).

Один из нашумевших случаев — злоумышленник связался с поклонницей Илона Маска и, притворившись знаменитостью, выманил у жертвы около 50 000 долларов. Кореянка сначала настороженно отнеслась к новому знакомому, но он высылал ей фото и даже связался с ней по видео, чтобы «подтвердить» личность.

В России уже известны случаи, когда мошенники создавали аудио и видео с детьми, чтобы поживиться деньгами их родителей. Схема вроде «Мам, я попал в неприятности, просто вышли денег» вышла на новый уровень. Люди на эмоциях не всегда могут быстро проанализировать новость и критически посмотреть на ситуацию.

Дипфейки могут использовать и для нанесения урона репутации политиков, общественных деятелей, публичных лиц, для создания хаоса и манипулирования мнением сотен и тысяч людей. Именно поэтому сейчас активно обсуждаются возможные меры борьбы с дипфейками, в том числе на законодательном уровне.

Опасная литература, сгенерированная ИИ

Семья приобрела книгу «Грибы Великобритании: руководство по сбору безопасных и съедобных грибов», не зная, что она была написана с использованием ИИ. Нейросеть сгенерировала не только текст, но и изображения. Из-за недостоверной информации в книге семья оказалась в больнице.

ИИ Google советует есть камни для улучшения пищеварения и готовить пиццу с клеем
Google

А что будет, если нейросети начнут привлекать к созданию учебных пособий? Что, если тот же врач или фармацевт получат из таких книг неправильные сведения?

Автопилот и цена ошибки программы

ИИ применяется в беспилотном управлении машинами, но эти программы еще очень далеки от совершенства. Например, при тестах в 2018 году еще на этапе испытаний автомобиль с автопилотом сбил человека насмерть. Трагедия произошла из-за некорректных настроек чувствительности к распознаванию опасных объектов.

И такие случаи не единичны. Автопилот может неверно оценить дорожную обстановку и неправильно отреагировать на ситуацию. Например, Джошуа Браун активно тестировал машину Tesla и ее функционал, и был полностью уверен в эффективности автопилота. Однако это в итоге привело к ДТП с печальным финалом — программа неверно распознала белую боковину прицепа, и автомобиль столкнулся с ним.

Как минимизировать риски от сгенерированного контента

На мой взгляд, помочь снизить риски от контента, созданного ИИ, можно комплексом мер. Всю информацию, полученную от нейросети, нужно тщательно проверять. Во-первых, уже сейчас для выявления подобного контента есть сервисы. Они не всегда точны, но в целом показывают весьма неплохие результаты. Они работают не только с текстами, но и с видео, распознавая дипфейки.

Популярный ИИ обвинили в самоубийстве ребенка

Во-вторых, стоит подумать о том, чтобы обязать авторов напрямую указывать, что они использовали в своей работе ИИ — например, чтобы об этом была пометка на обложке книги. Так покупатель сможет решить, готов ли он приобретать такую литературу. В-третьих, нужно развивать у детей и молодежи критическое мышление. Почему-то в обсуждениях проблемы недостоверности информации от ИИ этому аспекту уделяют мало внимания. А ведь именно благодаря критическому мышлению человек может отфильтровать недостоверные сведения, перепроверить информацию, используя разные источники.

Полный запрет или частичное ограничение на использование ИИ

Возможно, в будущем нас ждет полный запрет на использование ИИ при генерации контента в тех сферах, в которых ошибки могут стоить людям жизни и здоровья. В частности, это медицина, образование.

Я полагаю, что запреты могут коснуться также юриспруденции и журналистики. Фейковые новости могут посеять панику. А некорректная информация из области юриспруденции может создать путаницу, и люди неверно будут трактовать законы.

Как бороться с некачественным и вредным контентом от ИИ на глобальном и локальном уровнях

Применение ИИ может значительно упростить работу многих специалистов и открыть для них новые возможности. Но это инструмент, и использовать его стоит грамотно и осмотрительно.

Представлена технология, распознающая дипфейки в реальном времени

Международное сотрудничество может помочь выработать единые правила и стандарты, которые можно было бы использовать в дальнейшем для создания локальных законов в каждой отдельно взятой стране. Ведь у каждого государства свои социальные и правовые особенности.

А пока таких единых правил и законодательных норм нет, каждый из нас должен осознать, что ИИ может выдавать не только полезный, но и весьма сомнительный контент. И учиться фильтровать информацию, перепроверять факты.

Читать в источнике

Добавить комментарий