ИПОСТАСИ или сущности Создателя «нашего» Мира

Очень простая и очень сложная статья… Я долго думал, как описать некие трудноосознаваемые явления приРоды, чтобы изложение осознанного мною позволило практически любому желающему понять саму суть данного явления…  Данная статья пишется и непрерывно переписывается мною уже второй месяц… Решил наконец-то остановиться…  Как получилось — судить читателям…

 


Мысленный эксперимент №1 (проявление современных объектов «нашего» Мира)

Представим себе фотографии автомобилей, сделанные разными фотографами, в разное время суток, в разное время года, в разных местах планеты Земля, во время движения и во время стоянки, во время пожара….  Выглядеть фотографии могут вот так:








Читать далее 

Нужно вскрыть «черный ящик» искусственного интеллекта, пока не станет слишком поздно

Большинство алгоритмов искусственного интеллекта пока ещё создается людьми. Но ведь у каждого человека есть «своя точка зрения» на любое событие, действие, предмет… Т.е., все разработчики этих алгоритмов — источник «своих мнений», предвзятости, предубеждений, ошибок… и всё это постепенно переходит ко всем устройствам ими создаваемым в виде алгоритмов их функционирования… Но даже в случае создания алгоритма, функционирующего «без предубеждений», обучаться он будет на данных,  собранных и систематизированных некими поисковыми машинами типа Google. А что эти машины собрали и систематизировали? Правильно, предубеждения всех людей нашей планеты, имеющих доступ в сеть…   А как тогда в таком случае доверять искусственному интеллекту лечить людей, к примеру?
Что необходимо срочно делать в сложившейся ситуации и к чему она может привести в самое ближайшее время? Именно на эти и подобные им вопросы пытается ответить автор данной статьи — Илья Хель  (Источник: hi-news.ru)

«На протяжении нескольких лет в 1980-х годах абитуриентов Медицинской школы больницы Святого Георгия в Лондоне отбирали, используя высокотехнологичный метод. Компьютерная программа, одна из первых в своем роде, просматривала резюме, выбирая из всех заявок порядка 2000 кандидатов в год. Программа анализировала записи о поступлениях, изучая характеристики успешных заявителей, и корректировалась до тех пор, пока ее решения не совпадали с мнением приемной комиссии.

Однако программа научилась находить больше, чем хорошие оценки и признаки академических достижений. Через четыре года после реализации программы два врача в больнице обнаружили, что программа, как правило, отвергает женщин-претендентов и лиц с неевропейскими именами, независимо от их академических достоинств. Врачи обнаружили, что порядка 60 претендентам каждый год просто отказывали в собеседовании из-за их пола или расы. Программа включала гендерные и расовые предубеждения в данные, используемые для ее обучения — по сути, научилась тому, что врачи и иностранцы не лучшие кандидаты в доктора.

Тридцать лет спустя мы столкнулись с аналогичной проблемой, но программы с внутренними предубеждениями теперь шире распространены и принимают решения с еще более высокими ставками. Алгоритмы искусственного интеллекта, основанные на машинном обучении, используются повсюду, начиная с правительственных учреждений и заканчивая сферой здравоохранения, принимая решения и делая прогнозы, основанные на исторических данных. Изучая закономерности в данных, они также поглощают и предубеждения в них. Google, например, показывает больше рекламы низкооплачиваемой работы женщинам, чем мужчинам; однодневная доставка Amazon минует негритянские кварталы, а цифровые камеры с трудом распознают лица не белого цвета.

Трудно понять, является ли алгоритм предвзятым или справедливым, и так считают даже компьютерные эксперты. Одна из причин заключается в том, что детали создания алгоритма часто считаются запатентованной информацией, поэтому их тщательно охраняют владельцы. В более сложных случаях алгоритмы настолько сложны, что даже создатели не знают точно, как они работают. Это проблема так называемого «черного ящика» ИИ — нашей неспособности увидеть внутреннюю часть алгоритма и понять, как он приходит к решению. Если оставить его запертым, наше общество может серьезно пострадать: в цифровой среде реализуются исторические дискриминации, с которыми мы боролись много лет, от рабства и крепостничества до дискриминации женщин.

Эти беспокойства, озвученные в небольших сообществах информатиков ранее, теперь набирают серьезный оборот. За последние два года в этой области появилось довольно много публикаций о прозрачности искусственного интеллекта. Вместе с этой осведомленностью растет и чувство ответственности. «Могут ли быть какие-нибудь вещи, которые нам не стоит строить?», задается вопросом Кейт Кроуфорд, исследователь в Microsoft и соучредитель AI Now Insitute в Нью-Йорке.

«Машинное обучение наконец-то вышло на передний план. Теперь мы пытаемся использовать его для сотен различных задач в реальном мире», говорит Рич Каруана, старший научный сотрудник Microsoft. «Вполне возможно, что люди смогут развернуть вредоносные алгоритмы, которые значительно повлияют на общество в долгосрочной перспективе. Теперь, похоже, внезапно все поняли, что это важная глава в нашей области».

Читать далее 

Насколько опасна милитаризация современных технологий?

Технология «Face ID» пришла на смену прежней технологии идентификации и авторизации людей при помощи отпечатка пальца (Touch ID).  Исследуем перспективы развития данной технологии, с учётом того, что любая новая технология, появившаяся в руках людей, первоначально находит своё применение в военно-промышленном комплексе.

Технологии идентификации людей по отпечаткам пальцев, скану сетчатки глаза или анализу ДНК обладают практически 100% достоверностью идентификации, но не всегда удобны в использовании. Ведь осуществление этих операций требует физического доступа к телу человека и практически всегда требуется уведомление человека о проведении его идентификации третьей стороной.

Представители же современной власти давно мечтали получить инструмент 100% идентификации людей без их ведома. Миллионы круглосуточно работающих на улицах крупных городов видеокамер стали востребованы только сегодня, так как до вчерашнего дня не существовало технологий, позволяющих в режиме онлайн качественно идентифицировать людей. Именно качественно. Многие компании на протяжении более 40 лет активно разрабатывают автоматизированные, а сейчас и автоматические системы распознавания человеческих лиц: Smith & Wesson (система ASID – Automated Suspect Identification System); ImageWare (система FaceID); Imagis, Epic Solutions, Spillman, Miros (система Trueface); Vissage Technology (система Vissage Gallery); Visionics (система FaceIt).

Но технология «Face ID» отличается от иных подобных технологий принципиально. Она позволяет 100% идентифицировать человека не только днём, но и в темноте, а также при наличии грима на его лице  (наличии наклеенных усов, бороды и волос…), в головном уборе и так далее и т.п. Благодаря её установке на миллионы смартфонов iPhone X компании Apple, технология будет отлажена в течение считанного времени.

А что нас ждёт дальше?

Любые технологии — это технологии двойного назначения. Их можно применять как в интересах всего человечества, так и в интересах маленькой групки людей, которая получит доступ к её реализации и использованию.

Предоставленное читателям моего блога видео — больше, чем спекуляция. Это видео демонстрирует результат милитаризации только одной из технологий, которыми мы уже обладаем, технологии «Face ID».

У нас пока ещё есть возможность предотвратить негативные тенденции развития,  но окно наших возможностей закрывается очень быстро…

 

Читать далее 

Где та лупа, которая позволит взглянуть на «наш» мозг с другой «точки зрения»?

«Татьяна Черниговская: Но как профессионал хочу сказать, что гигантские деньги сейчас в мире уходят на проекты связанные с мозгом. Почему это так? Мы же все прекрасно понимаем, что никто и цента не дал бы если бы это не было так важно. Тот, кто выиграет эту игру, он будет абсолютно недосягаемый король для всех. Это изменит всё, всю историю. Мы сейчас занимаемся тем, что покупаем лупу все более и более высокого разрешения. Здесь нужно что-то другое. Мне надоело уже это говорить, но я вынуждена сказать ещё раз. Должен родиться гений, который посмотрит на весь этот ужас и скажет, что не с того боку к этому подходят. Парадигма другая должна быть. Да у нас в голове компьютер, но совсем не тот, который у каждого лежит в сумке или стоит на столе. Это совсем другое. Часть его такая и она, условно говоря, левополушарная. Это алгоритмические процедуры, метафорой этому является компьютер, который гоняет единицы и нули. Но у нас есть другая часть – это суперкомпьютер, аналоговый, мы не знаем что это такое, и как действует. Если получится, что компьютер, облако, не важно, осознает себя как «Я», как персону, это значит, что у него появятся собственные планы и мы в эти планы можем не входить. Учитывая их мощность, они нас вырубят в три минуты. Это я специально пугаю!

Николай Усков: Но кто будет в розетку то их подключать?

Татьяна Черниговская: Да сами они и будут. Фотосинтез себе устроят, будут питаться солнечной энергией, да все, что угодно. А мы будем веселиться со своей нефтяной иглой, пока не надоест…»

Татьяна Черниговская
«Всё человечество спятило»