Нужно вскрыть «черный ящик» искусственного интеллекта, пока не станет слишком поздно

Большинство алгоритмов искусственного интеллекта пока ещё создается людьми. Но ведь у каждого человека есть «своя точка зрения» на любое событие, действие, предмет… Т.е., все разработчики этих алгоритмов — источник «своих мнений», предвзятости, предубеждений, ошибок… и всё это постепенно переходит ко всем устройствам ими создаваемым в виде алгоритмов их функционирования… Но даже в случае создания алгоритма, функционирующего «без предубеждений», обучаться он будет на данных,  собранных и систематизированных некими поисковыми машинами типа Google. А что эти машины собрали и систематизировали? Правильно, предубеждения всех людей нашей планеты, имеющих доступ в сеть…   А как тогда в таком случае доверять искусственному интеллекту лечить людей, к примеру?
Что необходимо срочно делать в сложившейся ситуации и к чему она может привести в самое ближайшее время? Именно на эти и подобные им вопросы пытается ответить автор данной статьи — Илья Хель  (Источник: hi-news.ru)

«На протяжении нескольких лет в 1980-х годах абитуриентов Медицинской школы больницы Святого Георгия в Лондоне отбирали, используя высокотехнологичный метод. Компьютерная программа, одна из первых в своем роде, просматривала резюме, выбирая из всех заявок порядка 2000 кандидатов в год. Программа анализировала записи о поступлениях, изучая характеристики успешных заявителей, и корректировалась до тех пор, пока ее решения не совпадали с мнением приемной комиссии.

Однако программа научилась находить больше, чем хорошие оценки и признаки академических достижений. Через четыре года после реализации программы два врача в больнице обнаружили, что программа, как правило, отвергает женщин-претендентов и лиц с неевропейскими именами, независимо от их академических достоинств. Врачи обнаружили, что порядка 60 претендентам каждый год просто отказывали в собеседовании из-за их пола или расы. Программа включала гендерные и расовые предубеждения в данные, используемые для ее обучения — по сути, научилась тому, что врачи и иностранцы не лучшие кандидаты в доктора.

Тридцать лет спустя мы столкнулись с аналогичной проблемой, но программы с внутренними предубеждениями теперь шире распространены и принимают решения с еще более высокими ставками. Алгоритмы искусственного интеллекта, основанные на машинном обучении, используются повсюду, начиная с правительственных учреждений и заканчивая сферой здравоохранения, принимая решения и делая прогнозы, основанные на исторических данных. Изучая закономерности в данных, они также поглощают и предубеждения в них. Google, например, показывает больше рекламы низкооплачиваемой работы женщинам, чем мужчинам; однодневная доставка Amazon минует негритянские кварталы, а цифровые камеры с трудом распознают лица не белого цвета.

Трудно понять, является ли алгоритм предвзятым или справедливым, и так считают даже компьютерные эксперты. Одна из причин заключается в том, что детали создания алгоритма часто считаются запатентованной информацией, поэтому их тщательно охраняют владельцы. В более сложных случаях алгоритмы настолько сложны, что даже создатели не знают точно, как они работают. Это проблема так называемого «черного ящика» ИИ — нашей неспособности увидеть внутреннюю часть алгоритма и понять, как он приходит к решению. Если оставить его запертым, наше общество может серьезно пострадать: в цифровой среде реализуются исторические дискриминации, с которыми мы боролись много лет, от рабства и крепостничества до дискриминации женщин.

Эти беспокойства, озвученные в небольших сообществах информатиков ранее, теперь набирают серьезный оборот. За последние два года в этой области появилось довольно много публикаций о прозрачности искусственного интеллекта. Вместе с этой осведомленностью растет и чувство ответственности. «Могут ли быть какие-нибудь вещи, которые нам не стоит строить?», задается вопросом Кейт Кроуфорд, исследователь в Microsoft и соучредитель AI Now Insitute в Нью-Йорке.

«Машинное обучение наконец-то вышло на передний план. Теперь мы пытаемся использовать его для сотен различных задач в реальном мире», говорит Рич Каруана, старший научный сотрудник Microsoft. «Вполне возможно, что люди смогут развернуть вредоносные алгоритмы, которые значительно повлияют на общество в долгосрочной перспективе. Теперь, похоже, внезапно все поняли, что это важная глава в нашей области».

Читать далее 

Мусор на входе — мусор на выходе. Эссе о современных тенденциях развития искусственного интеллекта

«Мусор на входе — мусор на выходе» (англ. Garbage In, Garbage Out, GIGO) — принцип в информатике, означающий, что при неверных входящих данных будут получены неверные результаты, даже если сам по себе алгоритм правилен.  В русскоязычной культуре аналогом принципа является выражение «Что посеешь — то и пожнёшь».  Это выражение обычно применяется в отношении компьютерных программ или может использоваться для описания человеческих ошибок, вызванных недостатком, неточностью или ложностью исходных данных. Иными словами, если входящая информация включает в себя ошибки, то в результате прохождения через некую систему, скорее всего, будут получены искажённые выводы…

«Хотя концепция «мусор на входе — мусор на выходе» была известна во времена Чарльза Беббиджа (1864) и даже раньше, первым этот термин ввёл Джордж Фьючел / George Fuechsel, программист, использовавший GIGO как обучающий метод в конце 1950-х годов. Следует отметить: Фьючел употреблял термин, чтобы подчеркнуть, что «мусор на выходе» не обязательно является результатом «мусора на входе», а может быть обусловлен самим продуктом…»

«Лучший способ избежать «мусора» на выходе — не дать ему попасть на вход.»

Уильям Лидвелл, Критина Холден, Джил Балтер, Универсальные принципы дизайна, СПб, «Питер», 2012 г., с.112.

 

В каком направлении будет развиваться искусственный интеллект и любые компьютеризированные устройства, им оснащённые, пока ещё зависит от людей, которые его создают. А Создатели (Творцы) этих устройств и алгоритмов определяют наше с вами будущее и будущее наших детей исключительно по «своему образу и подобию».

А хотим ли мы жить в Мире, созданному по «их образу и подобию?»

А хотим ли мы, чтобы наши дети жили в Мире, созданному по «их образу и подобию?»

Задумайтесь…

Может пора уже нам организовывать специальные «отряды сопротивления»…

Как бы не опоздать…

 

 

Для справки:

Эссе (из фр. essai «попытка, проба, очерк», от лат. exagium «взвешивание») — литературный жанр, прозаическое сочинение небольшого объёма и свободной композиции, которое выражает индивидуальные впечатления и соображения автора по конкретному поводу или предмету и не претендует на исчерпывающую или определяющую трактовку темы (в пародийной русской традиции «взгляд и нечто»). В отношении объёма и функции граничит, с одной стороны, с научной статьёй и литературным очерком (с которым эссе нередко путают), с другой — с философским трактатом. Эссеистическому стилю свойственны образность, подвижность ассоциаций, афористичность, нередко антитетичность мышления, установка на интимную откровенность и разговорную интонацию. Некоторыми теоретиками рассматривается как четвёртый, наряду с эпосом, лирикой и драмой, род художественной литературы».  

 

Насколько опасна милитаризация современных технологий?

Технология «Face ID» пришла на смену прежней технологии идентификации и авторизации людей при помощи отпечатка пальца (Touch ID).  Исследуем перспективы развития данной технологии, с учётом того, что любая новая технология, появившаяся в руках людей, первоначально находит своё применение в военно-промышленном комплексе.

Технологии идентификации людей по отпечаткам пальцев, скану сетчатки глаза или анализу ДНК обладают практически 100% достоверностью идентификации, но не всегда удобны в использовании. Ведь осуществление этих операций требует физического доступа к телу человека и практически всегда требуется уведомление человека о проведении его идентификации третьей стороной.

Представители же современной власти давно мечтали получить инструмент 100% идентификации людей без их ведома. Миллионы круглосуточно работающих на улицах крупных городов видеокамер стали востребованы только сегодня, так как до вчерашнего дня не существовало технологий, позволяющих в режиме онлайн качественно идентифицировать людей. Именно качественно. Многие компании на протяжении более 40 лет активно разрабатывают автоматизированные, а сейчас и автоматические системы распознавания человеческих лиц: Smith & Wesson (система ASID – Automated Suspect Identification System); ImageWare (система FaceID); Imagis, Epic Solutions, Spillman, Miros (система Trueface); Vissage Technology (система Vissage Gallery); Visionics (система FaceIt).

Но технология «Face ID» отличается от иных подобных технологий принципиально. Она позволяет 100% идентифицировать человека не только днём, но и в темноте, а также при наличии грима на его лице  (наличии наклеенных усов, бороды и волос…), в головном уборе и так далее и т.п. Благодаря её установке на миллионы смартфонов iPhone X компании Apple, технология будет отлажена в течение считанного времени.

А что нас ждёт дальше?

Любые технологии — это технологии двойного назначения. Их можно применять как в интересах всего человечества, так и в интересах маленькой групки людей, которая получит доступ к её реализации и использованию.

Предоставленное читателям моего блога видео — больше, чем спекуляция. Это видео демонстрирует результат милитаризации только одной из технологий, которыми мы уже обладаем, технологии «Face ID».

У нас пока ещё есть возможность предотвратить негативные тенденции развития,  но окно наших возможностей закрывается очень быстро…

 

Читать далее