Познание иерархии объектов Мироздания

Несколько лет назад я повесил дуплянку-синичник на дерево возле моего дома. Последние годы в неё никто не поселялся. Причина игнорирования птиц моей работой мне была не понятна, так как дуплянка была сделана на совесть и размещена на дереве в соответствии с требованиями, описанными знатоками в сети интернет. Но только в этом году я услышал пение синиц и увидел, как синица-самец показывал синице-самке найденное им жильё и то, насколько оно хорошо. Самочка сидела на расстоянии около метра от синичника и внимательно наблюдала за рассказом самца. И невдомёк им обоим было то, что это жильё для них (дуплянку-синичник) сделала не Природа, а сделал я — человек, и что я с радостью наблюдая сейчас за ними и слушал их щебетание.

Эти птицы обладают:

  • умом (мыслительными способностями);
  • разумом (жизненным опытом);
  • интеллектом (совокупностью всех качеств УМА и всех качеств РАЗУМА;
  • сознанием (объёмом сведений о Мире (в наиболее широком смысле), систематизированным (обобщённым, осознанным) ими в результате осуществления познавательного процесса.

Свой познавательный процесс синички осуществляют через свою «щель познания» — множество диапазонов значений различных родов физических величин, в которых они способны проявлять (воспринимать) раздражения рецепторов своих тел в виде ощущений.

Чем же мы, люди, отличаемся от этих птичек, в части познавательных способностей.

У нас более развит ум, более значителен жизненный опыт и, соответственно, намного больший объём сознания. Но, что самое интересное, у нас точно также есть своя «щель познания». Да, где-то она намного шире, чем у синиц, а где-то и уже… Мы точно также смотрим на Мир через свою «щель познания».

Ранее в данном блоге я написал статью «Познание с иной точки зрения. Перцепция vs Восприятие vs Проявление«, в которой показал, что человеческие существа способны на самый глубокий вид познания — проявление. Но, судя по всему, и синички способны на этот вид познания, только он ограничен у них более слабым, по сравнению с человеческим, интеллектом.

Поэтому можно предположить, что если существует объект, обладающий:

  • большим интеллектом, чем человеческое существо;
  • более длительным жизненным циклом, чем жизненный цикл вещественного тела человеческого существа;
  • намного более широкой «щелью познания», чем у человеческих существ;
  • невидимым для глаз человеческих существ своим телом;

то для подобных объектов человеческие существа выглядят точно также, как для человеческих существ синички.

Объект, обладающий такими параметрами, способен:

  • наблюдать за человеческими существами и при этом быть невидимым для них;
  • содействовать или противодействовать человеческим существам в их деятельности ;
  • и т.д.

Это и есть построение иерархии в Мироздании, основанное на конкретных физических параметрах (ум, разум, сознание, жизненный цикл, «щель познания») и показывающее место человеческих существ в ней.

Хочу обратить особое внимание моих читателей на тот факт, что, как показано выше, приведённая выше иерархия объектов Мироздания может быть построена на основе конкретных физических параметров и не будет иметь никакого отношения ни к эзотерике, ни к религии.

 

Нужно вскрыть «черный ящик» искусственного интеллекта, пока не станет слишком поздно

Большинство алгоритмов искусственного интеллекта пока ещё создается людьми. Но ведь у каждого человека есть «своя точка зрения» на любое событие, действие, предмет… Т.е., все разработчики этих алгоритмов — источник «своих мнений», предвзятости, предубеждений, ошибок… и всё это постепенно переходит ко всем устройствам ими создаваемым в виде алгоритмов их функционирования… Но даже в случае создания алгоритма, функционирующего «без предубеждений», обучаться он будет на данных,  собранных и систематизированных некими поисковыми машинами типа Google. А что эти машины собрали и систематизировали? Правильно, предубеждения всех людей нашей планеты, имеющих доступ в сеть…   А как тогда в таком случае доверять искусственному интеллекту лечить людей, к примеру?
Что необходимо срочно делать в сложившейся ситуации и к чему она может привести в самое ближайшее время? Именно на эти и подобные им вопросы пытается ответить автор данной статьи — Илья Хель  (Источник: hi-news.ru)

«На протяжении нескольких лет в 1980-х годах абитуриентов Медицинской школы больницы Святого Георгия в Лондоне отбирали, используя высокотехнологичный метод. Компьютерная программа, одна из первых в своем роде, просматривала резюме, выбирая из всех заявок порядка 2000 кандидатов в год. Программа анализировала записи о поступлениях, изучая характеристики успешных заявителей, и корректировалась до тех пор, пока ее решения не совпадали с мнением приемной комиссии.

Однако программа научилась находить больше, чем хорошие оценки и признаки академических достижений. Через четыре года после реализации программы два врача в больнице обнаружили, что программа, как правило, отвергает женщин-претендентов и лиц с неевропейскими именами, независимо от их академических достоинств. Врачи обнаружили, что порядка 60 претендентам каждый год просто отказывали в собеседовании из-за их пола или расы. Программа включала гендерные и расовые предубеждения в данные, используемые для ее обучения — по сути, научилась тому, что врачи и иностранцы не лучшие кандидаты в доктора.

Тридцать лет спустя мы столкнулись с аналогичной проблемой, но программы с внутренними предубеждениями теперь шире распространены и принимают решения с еще более высокими ставками. Алгоритмы искусственного интеллекта, основанные на машинном обучении, используются повсюду, начиная с правительственных учреждений и заканчивая сферой здравоохранения, принимая решения и делая прогнозы, основанные на исторических данных. Изучая закономерности в данных, они также поглощают и предубеждения в них. Google, например, показывает больше рекламы низкооплачиваемой работы женщинам, чем мужчинам; однодневная доставка Amazon минует негритянские кварталы, а цифровые камеры с трудом распознают лица не белого цвета.

Трудно понять, является ли алгоритм предвзятым или справедливым, и так считают даже компьютерные эксперты. Одна из причин заключается в том, что детали создания алгоритма часто считаются запатентованной информацией, поэтому их тщательно охраняют владельцы. В более сложных случаях алгоритмы настолько сложны, что даже создатели не знают точно, как они работают. Это проблема так называемого «черного ящика» ИИ — нашей неспособности увидеть внутреннюю часть алгоритма и понять, как он приходит к решению. Если оставить его запертым, наше общество может серьезно пострадать: в цифровой среде реализуются исторические дискриминации, с которыми мы боролись много лет, от рабства и крепостничества до дискриминации женщин.

Эти беспокойства, озвученные в небольших сообществах информатиков ранее, теперь набирают серьезный оборот. За последние два года в этой области появилось довольно много публикаций о прозрачности искусственного интеллекта. Вместе с этой осведомленностью растет и чувство ответственности. «Могут ли быть какие-нибудь вещи, которые нам не стоит строить?», задается вопросом Кейт Кроуфорд, исследователь в Microsoft и соучредитель AI Now Insitute в Нью-Йорке.

«Машинное обучение наконец-то вышло на передний план. Теперь мы пытаемся использовать его для сотен различных задач в реальном мире», говорит Рич Каруана, старший научный сотрудник Microsoft. «Вполне возможно, что люди смогут развернуть вредоносные алгоритмы, которые значительно повлияют на общество в долгосрочной перспективе. Теперь, похоже, внезапно все поняли, что это важная глава в нашей области».

Читать далее 

Мусор на входе — мусор на выходе. Эссе о современных тенденциях развития искусственного интеллекта

«Мусор на входе — мусор на выходе» (англ. Garbage In, Garbage Out, GIGO) — принцип в информатике, означающий, что при неверных входящих данных будут получены неверные результаты, даже если сам по себе алгоритм правилен.  В русскоязычной культуре аналогом принципа является выражение «Что посеешь — то и пожнёшь».  Это выражение обычно применяется в отношении компьютерных программ или может использоваться для описания человеческих ошибок, вызванных недостатком, неточностью или ложностью исходных данных. Иными словами, если входящая информация включает в себя ошибки, то в результате прохождения через некую систему, скорее всего, будут получены искажённые выводы…

«Хотя концепция «мусор на входе — мусор на выходе» была известна во времена Чарльза Беббиджа (1864) и даже раньше, первым этот термин ввёл Джордж Фьючел / George Fuechsel, программист, использовавший GIGO как обучающий метод в конце 1950-х годов. Следует отметить: Фьючел употреблял термин, чтобы подчеркнуть, что «мусор на выходе» не обязательно является результатом «мусора на входе», а может быть обусловлен самим продуктом…»

«Лучший способ избежать «мусора» на выходе — не дать ему попасть на вход.»

Уильям Лидвелл, Критина Холден, Джил Балтер, Универсальные принципы дизайна, СПб, «Питер», 2012 г., с.112.

 

В каком направлении будет развиваться искусственный интеллект и любые компьютеризированные устройства, им оснащённые, пока ещё зависит от людей, которые его создают. А Создатели (Творцы) этих устройств и алгоритмов определяют наше с вами будущее и будущее наших детей исключительно по «своему образу и подобию».

А хотим ли мы жить в Мире, созданному по «их образу и подобию?»

А хотим ли мы, чтобы наши дети жили в Мире, созданному по «их образу и подобию?»

Задумайтесь…

Может пора уже нам организовывать специальные «отряды сопротивления»…

Как бы не опоздать…

 

 

Для справки:

Эссе (из фр. essai «попытка, проба, очерк», от лат. exagium «взвешивание») — литературный жанр, прозаическое сочинение небольшого объёма и свободной композиции, которое выражает индивидуальные впечатления и соображения автора по конкретному поводу или предмету и не претендует на исчерпывающую или определяющую трактовку темы (в пародийной русской традиции «взгляд и нечто»). В отношении объёма и функции граничит, с одной стороны, с научной статьёй и литературным очерком (с которым эссе нередко путают), с другой — с философским трактатом. Эссеистическому стилю свойственны образность, подвижность ассоциаций, афористичность, нередко антитетичность мышления, установка на интимную откровенность и разговорную интонацию. Некоторыми теоретиками рассматривается как четвёртый, наряду с эпосом, лирикой и драмой, род художественной литературы».  

 

Насколько опасна милитаризация современных технологий?

Технология «Face ID» пришла на смену прежней технологии идентификации и авторизации людей при помощи отпечатка пальца (Touch ID).  Исследуем перспективы развития данной технологии, с учётом того, что любая новая технология, появившаяся в руках людей, первоначально находит своё применение в военно-промышленном комплексе.

Технологии идентификации людей по отпечаткам пальцев, скану сетчатки глаза или анализу ДНК обладают практически 100% достоверностью идентификации, но не всегда удобны в использовании. Ведь осуществление этих операций требует физического доступа к телу человека и практически всегда требуется уведомление человека о проведении его идентификации третьей стороной.

Представители же современной власти давно мечтали получить инструмент 100% идентификации людей без их ведома. Миллионы круглосуточно работающих на улицах крупных городов видеокамер стали востребованы только сегодня, так как до вчерашнего дня не существовало технологий, позволяющих в режиме онлайн качественно идентифицировать людей. Именно качественно. Многие компании на протяжении более 40 лет активно разрабатывают автоматизированные, а сейчас и автоматические системы распознавания человеческих лиц: Smith & Wesson (система ASID – Automated Suspect Identification System); ImageWare (система FaceID); Imagis, Epic Solutions, Spillman, Miros (система Trueface); Vissage Technology (система Vissage Gallery); Visionics (система FaceIt).

Но технология «Face ID» отличается от иных подобных технологий принципиально. Она позволяет 100% идентифицировать человека не только днём, но и в темноте, а также при наличии грима на его лице  (наличии наклеенных усов, бороды и волос…), в головном уборе и так далее и т.п. Благодаря её установке на миллионы смартфонов iPhone X компании Apple, технология будет отлажена в течение считанного времени.

А что нас ждёт дальше?

Любые технологии — это технологии двойного назначения. Их можно применять как в интересах всего человечества, так и в интересах маленькой групки людей, которая получит доступ к её реализации и использованию.

Предоставленное читателям моего блога видео — больше, чем спекуляция. Это видео демонстрирует результат милитаризации только одной из технологий, которыми мы уже обладаем, технологии «Face ID».

У нас пока ещё есть возможность предотвратить негативные тенденции развития,  но окно наших возможностей закрывается очень быстро…

 

Читать далее 

Ум, Разум, Интеллект и Мудрость. Попытка подтверждения правильности толкования терминов на основе изучения поговорок, пришедших к нам из глубины веков

УМ — совокупность способностей субъекта, которые обеспечивают ему познавательную деятельность.

То, что автор правильно трактует понятие УМ говорят многие народные поговорки, пришедшие к нам из глубины веков:

  • Ум на ум не приходится. Что голова, то ум.
  • Всяк своим умом живет.
  • Сколько голов, столько умов.
  • Свой ум — царь в голове.
  • С осину вырос, а ума не вынес.
  • Ум имей хоть маленький, да свой.
  • Ум за морем не купишь, коли дома нет.
  • У соседа ума не займешь.
  • Чужим умом не построишь дом.
  • Имей ум — все остальное приложится.
  • Ум — великое дело.
  • На всякий час ума не напасешься.
  • Нос с локоть, а ума с ноготь.
  • На голове густо, а в голове пусто.
  • Большой вырос, а ума не вынес.
  • Не всяк умен, кто с головою.
  • Наставь на ум.
  • Свой ум не убыток.
  • У ребенка и ум ребячий.
  • Ум не в летах, а в голове.
  • У умной головы сто рук.

УМ издревле ценили очень высоко:

  • Не за бороду — за ум жалуют.
  • За ум возьмешься — до дела доберешься.
  • Нажить своим умом.
  • Встречают по одежке, провожают по уму.
  • Умную голову почитают смолоду.
  • Где ум, там и толк.
  • С умом жить, а без ума небо коптить.
  • Ум золота дороже.
  • Ум — хорошо, а два — лучше.
  • Всем своего ума не вложишь.

  Читать далее 

«Я хочу остаться человеком». Фильм Галины Царевой.

Трансгуманизм, NeuroNet (нейронет), виртуальная реальность, чипирование, роботизация, новое образование, новые религии, соединение мозга человеческого существа с компьютером…

Не то «Эпоха духовных машин», не то «Эпоха одухотворённых машин»… Книгу с таким названием написал Рэймонд Курцвейл (Raymond Kurzweil), один из современных идеологов развития корпорации Google.

Рэймонд Курцвейл (англ. Raymond Kurzweil; род. 12 февраля 1948, город Нью-Йорк, США) — известный американский изобретатель и футуролог. В качестве изобретателя он создал многочисленные системы для распознавания речи. Как футуролог он известен научными технологическими прогнозами, учитывающими появление искусственного интеллекта и средств радикального продления жизни людей. Согласно Курцвейлу, в будущем человечество достигнет почти неограниченного материального изобилия, а люди могут стать бессмертными. Он также дал обоснование технологической сингулярности — феноменально быстрого научно-технического прогресса, основанного на мощном искусственном интеллекте (превосходящем человеческий) и киборгизации людей.

Но ведь человечество изначально прошло точку СИНГУЛЯРНОСТИ, и мы изначально живём в «Веке духовных машин»! Ведь человеческие существа и есть те самые «духовные машины» и/или «одухотворенные машины». Просто основная проблема состоит в том, что понимание этого факта пока не достигнуто современными Личностями человеческих существ. Как только это произойдёт – наступит скачкообразное изменение этических норм и резко ускорится техническая эволюция.

Отсутствие у современных исследователей парадигмы таких понятий как «человек» и «человеческое существо», а, соответственно, и отсутствие понимания философии «смысла жизни» этого  существа, постепенно увеличивает количество технологических ошибок и ведёт человечество к своей гибели…

Дети-ИНДИГО. Правда и вымысел. Философия и технологии.

Рождение ребёнка

Рассмотрим простую ситуацию — в семье родился ребёнок. Чем он отличается от других только что родившихся детей? Правильно, только своим «плотным» телом, которое получено им в наследство от своих родителей и представляет собой некую комбинацию свойств «плотных» тел этих родителей. А «Я», которые воплощаются в рождающиеся тела детей, представляют собой абсолютно одинаковые Сущности. Как результат, мы получаем совершенно разные ЧЕЛОВЕЧЕСКИЕ СУЩЕСТВА, с одинаковой у всех ЛИЧНОСТЬЮ (при полном отсутствии сознания, т.е. систематизированной информации) и с разным у всех «плотным» ТЕЛОМ.

Как показывают многочисленные исследования современных учёных, рождённые «плотные» тела детей отличаются не только по своей структуре, но и по качеству своего функционирования, которое было заложено в них в процессе зачатия. Если один ребёнок был зачат в состоянии глубокой привязанности и любви между партнерами, а другой ребёнок был зачат путём изнасилования одним партнёром другого, а третий ребёнок был зачат партнёрами в пьяном виде или в состоянии наркотического опьянения, то, соответственно, «плотные» тела этих детей будут отличаться друг от друга и по качеству своего функционирования — первые будут функционировать «как часы», т.е. не будут мешать своему владельцу в течение всего его жизненного цикла заниматься любимой для него деятельностью, другие будут много болеть, а третьи будут функционировать с постоянными сбоями…

Пример в качестве аналогии: Возьмём аппаратные части компьютеров (hardware) у разных производителей  и установим (инсталлируем, воплотим) на них одну и ту же операционную систему (operation system). Как результат, мы получаем совершенно разные ПЕРСОНАЛЬНЫЕ КОМПЬЮТЕРЫ (personal computers), с одинаковой у всех ОПЕРАЦИОННОЙ СИСТЕМОЙ (при полном отсутствии каких-либо данных о каком-либо функционировании этого компьютера) и с разной их АППАРАТНОЙ ЧАСТЬЮ. Следует учитывать, что один персональный компьютер создавался с любовью и заботой, другой был собран из того, что «под руки» сборщику попалось, а третий был собран сборщиками в состоянии алкогольного опьянения. Соответственно, персональные компьютеры будут изначально отличаться один от другого, одни будут бесперебойно работать многие годы, другие будут часто выходить из строя, третьи будут неправильно функционировать и т.д.

Только родившийся ребёнок человеческого существа – это аналог нового персонального компьютера с новой инсталлированной в его аппаратную часть операционной системой.

Именно поэтому и получается, что:

  • если сразу же после своего рождения человеческий ребёнок попадёт в волчью стаю и будет найден людьми через несколько лет, то это уже будет не человек, а животное с телом человеческого существа, но с сознанием (накопленной и систематизированной информацией) волка; Но храниться это сознание (сознание «человеко-волка») будет в ячейках «космического» носителя, предназначенных для хранения сознаний представителей «современного» человечества.
  • если сразу же после своего рождения в племени Мумба-Юмба ребёнок будет забран из племени в современную семью, то через 20 лет это человеческое существо вполне может стать известной Личностью, внесшей серьезный вклад в развитие человечества.

Вывод #1 — В момент своего рождения дети людей отличаются друг от друга исключительно своими «плотными» телами и ничем более.

Читать далее 

Искусственный интеллект научился синтезировать шумы, которые люди не в состоянии отличить от естественных

Искусственный интеллект научился синтезировать шумы, которые люди не в состоянии отличить от естественных. Ученые из Лаборатории искусственного интеллекта Массачусетского технологического института разработали алгоритм, способный озвучивать видеоролики, снабжая их шумовыми эффектами. Для обучения ИИ исследователи показали ему около 1000 видеофрагментов, содержащих 46 000 различных шумов, которые производились при помощи барабанной палочки.

«Чтобы озвучить какой-либо эпизод, алгоритм анализирует звуковые характеристики исходного фрагмента и сравнивает их с семплами, которые хранятся в базе данных. Когда подходящий шум найден, система вставляет его в аудиодорожку ролика, аккуратно «сшивая» его с соседними звуками», — объяснил аспирант Эндрю Оуэнс (Andrew Owens), один из авторов разработки.

Когда видеоролики, озвученные ИИ, показывали добровольцам, те в большинстве случаев не могли распознать «подлога».

 

Искусственный интеллект затирает исходные шумы в ролике, заменяя их ударами и скрипами барабанной палочки. По мнению Оуэнса и его коллег, алгоритм можно будет использовать для создания звуковых эффектов в кино. Однако у исследования есть и более фундаментальное значение — ученые считают, что они разработали методику, которая позволит роботам эффективнее знакомиться с окружающим миром.

«Когда вы стучите пальцем по бокалу, звук позволяет понять, сколько в нем содержится жидкости. ИИ, который учится воспроизводить такие звуки, одновременно получает представление о форме и свойствах объектов материального мира», — сказал Оуэнс.