Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 21 - 30 из 54367
От чего зависит скорость возникновения привычки? И как на это можно влиять?
Слышал про 21 день, но где-то читал, что это не совсем верная информация и, что надо вроде как больше времени.
Мне приходит в голову несколько вариантов:
1. Конкретизировать поведение, которое хочется "привить".
2. "Зацепить" это поведение на ценности.
3. А где ценности, там и ЦИ... получается можно пойти в сторону выявления ЦИ формата "делаю новое поведение <> не делаю новое поведение" Если новая привычка идёт эмм как бы в "пустое" место? В ином случае "делаю новое поведение <> делаю старое поведение".
4. Субмодальности мотивации наложить на ЖП.
Это оригинальная метапрактиковая модель моделирования, которая в настоящее время получила название: "Конвейер Моделирования".
И, если не секрет, что это за модель ?
https://metapractice.livejournal.com/587759.html
St. Neuronet (18) Искусственная Интуиция
https://metapractice.livejournal.com/573743.html
Подсознательное мышление (2) Интуитивное мышление
https://metapractice.livejournal.com/549972.html
Эпистемология моделирования (4) Моделирование ЧА vs ИИ
https://metapractice.livejournal.com/544138.html
Онтология высших ментальных процессов (2) Ментальные процессы ЧА vs ИИ
https://metapractice.livejournal.com/565864.html
Ментальные инструменты (2) Ментальные инструменты ЧА vs ИИ
https://metapractice.livejournal.com/567523.html
Подсознание (14) Подсознание ЧА vs ИИ
https://metapractice.livejournal.com/556866.html
Сознание (30) «Сознание» ИИ vs ЧА
https://metapractice.livejournal.com/568593.html

Как искусственный интеллект уперся лбом в стенку/ в искусственную интуицию
Искусственному интеллекту уже более 60 лет – он старше многих из нас. И все эти 60 лет накануне первого апреля в своих редакциях собирались журналисты, ставили на стол бутылку водки и придумывали очередную фантазию о чудо-роботах или ужасном апокалипсисе с участием ИИ. Потом первоапрельские шутки на полном серьезе подхватывали маркетологи и пиарщики – в итоге за 60 лет у человечества накопилось много забавных иллюзий и мифов об умных роботах и коварных скайнетах.
Когда-нибудь этот пузырь фантазий должен был столкнуться с объективной реальностью – и это произошло! В декабре 2017 года ряд уважаемых в отрасли ИИ экспертов (среди них руководитель Microsoft Research Кейт Кроуфорд и основатель Open Research в Google Мередит Уиттакер) выступили с настоятельной рекомендацией государственным учреждениям США воздерживаться от использования искусственного интеллекта в системах, связанных с принятием ответственных решений. Предупреждение объяснялось «неопределенно высокими рисками, недопустимыми в вопросах принятия ответственных решений» и касалось правительства, обороны, уголовного правосудия, здравоохранения, социального обеспечения, образования и подбора/оценки кадров.
Первыми еще в 2016 году подняли тревогу военные ученые из DARPA, управления по перспективным исследовательским проектам Пентагона. Они в частности заявили: «Мы не понимаем:
1) Почему машина выбрала или предложила именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения машиной?
5) И главное – как нам исправить ситуацию, если принятое машиной решение окажется ошибочным?»
Последний пункт с точки зрения будущего развития ИИ-отрасли действительно главный: такая исключительно важная для совершенствования специалиста-человека опция как «работа над ошибками» искусственному интеллекту недоступна.
Проблема называется «черный ящик искусственного интеллекта» — ее суть в том, что мотивация и логика принятия машиной того или иного решения непонятна даже самим разработчикам. И как решили эксперты, пока эта проблема не решена, системы ИИ становятся все опасней.Существует масса областей – от диагностики рака до финансового анализа, от самоуправляемых авто до пуска боевых ракет — где вырабатываемые компьютерами решения могут оказаться незаконными и нанести серьезный вред.
Проблема «черного ящика» — не единственная проблема ИИ, обсуждаемая экспертным сообществом: есть еще, например, узкая специализация, однозадачность. Но официально, на государственном уровне претензии выдвинуты и обоснованы впервые – и они касаются именно непрозрачности в работе искусственного интеллекта. А это значит, что высказано недоверие в адрес его разработчиков!
Давно и подробно пишущий на эту тему уважаемый неутомимый Сергей Карелов https://www.facebook.com/sergey.karelov.5?__tn__=%2CdC-R-R&eid=ARCsFgSRXIq7LowvYRhLhsqbLrrgXumIgrNVoTMW3i_2go1kWp3i0OWw2zV1Aoh0MiH6fAGudXQfSvK0&hc_ref=ARSn2DxkjPYe_q3S5TJ2rHvKtCw26CERy8xUJcPfwvrntA1fV_4Dg9EO_e5gcra8XSA&fref=nf
Он надеется, что лидеры отрасли, ведущие разработчики сумеют «сделать стенки черного ящика прозрачными» и снимут все вопросы у потребителей/заказчиков. Такой спасительный и прорывной проект действительно существует, он создан учеными DARPA более двух лет назад, называется «Объяснимый ИИ» (Explainable Artificial Intelligence (XAI). Но вот беда: за два года никто так ничего и не объяснил! Ну что поделать: не шмогла!
Пришлось маркетологам, пиарщикам и журналистам опять ставить на стол бутылку водки и креативить новый имидж и новые подвиги искусственного интеллекта. И они действительно придумали нечто новое – точнее, в соответствии со своей профессией они придумали новые слова. Придумали не новый ИИ, объясняющий (а для этого надо понимать!) то, что он делает, а слова, описывающие по-новому те же старые дела и возможности.
Фактически было заявлено следующее: то, что работает внутри «черного ящика», необъяснимо в принципе! Вы не знаете, и мы не знаем, как работает нейронная сеть глубокого обучения – но ведь никто не знает и того, как работает мозг человека!
Согласно новой концепции слова создателя сверточных сетей Яна Лекуна о «сканировании всего изображения и маркирования каждого пикселя» легко и красиво преобразились в «интуицию» и «прогностические модели мира» https://hightech.fm/2018/07/02/lekun?fbclid=IwAR1Tl6LeARw8KzCeioovDMx3uPDVSqJMKuMtr32TI4DmcUaGdJAaJC1GPiM
А Ольга Ускова, один из основателей Cognitive Technologies, развивая тезисы Лекуна, придумала новый термин — «искусственная интуиция». https://snob.ru/entry/166778
Цитата: «наша команда Cognitive Pilot стала одной из первых, которая продемонстрировала Искусственный Мозг для беспилотного автомобиля, работающий уже на уровне человека, при этом на существующей элементной базе. Мы ввели понятие ИСКУССТВЕННАЯ ИНТУИЦИЯ…»
То есть не СОЗДАЛИ искусственную интуицию, а ВВЕЛИ ПОНЯТИЕ, что конечно, сделать значительно легче. Если собака Павлова начинает истекать слюной, когда загорится лампочка, то легко можно сказать, что она предвидит кормление, что условный рефлекс – это и есть интуиция. А если смоделировать собачий условный рефлекс на компьютере, тогда получается «искусственная интуиция»! Но как понять пассаж про то, что «Искусственный Мозг работает уже на уровне человека»? Человеку предлагается слепо довериться «искусственной интуиции» беспилотного автомобиля, жить в «прогностической модели мира» собаки Павлова?
Получается не взрослый, а какой-то детский разговор по уровню ответственности. По большому счету эта маркетинговая находка про интуицию не дает ответа ни на один вопрос из тех пяти, что задали разработчикам ученые DARPA. Если в вопросы подставить слово «интуиция», ничего не изменится. Почему интуиция подсказала машине именно такое решение? Как понять, когда интуиция сработала правильно, а когда ошиблась? Как исправить ошибку и где гарантия, что машина опять не ошибется?
Можно понять беспокойство отечественных разработчиков: ограничения на использование ИИ в США усиливаются как раз в то время, когда в России объявлен старт всеобщей цифровизации, на что государство выделяет триллионы рублей!
При этом помимо того, что не появилось серьезных ответов на старые вопросы, возникают новые.
Интуиция работает при недостатке информации, на минимальной базе данных — в этом ее смысл и ценовое преимущество (в смысле используемых вычислительных мощностей — на этот бонус и намекается, когда говорится, что чудесный прорыв совершен «на существующей элементной базе»).
Допустим чисто гипотетически, что «искусственная интуиция» — это не просто загадочные слова и загадочное лицо старого фокусника, за которыми он скрывает примитивную простоту старого фокуса. Это же фокус, дети, а фокусы не объясняют!
Предположим, что чудо свершилось и действительно удалось создать алгоритм интуиции! Но в этом случае кому нужны будут все эти бигдаты, мега-колоссальные объемы информации, на хранение которых АйТи-гиганты тратят миллиарды? Человеку они не нужны, он с ними давно уже не справляется, не успевает обрабатывать — именно поэтому тратит столько сил и финансов на создание эффективного помощника в лице ИИ. А если все растущие объемы информации не нужны и машине, если она научилась как человек обходиться интуицией – то кому и для чего нужны все эти терракотовые полчища серверов, столпотворения терабайтов, облачные хранилища?!
Можно, конечно, придумать новые слова и для ответа на этот вопрос – надо только предварительно сбегать за бутылкой водки. Но гораздо интересней все же раскрыть тайну «черного ящика» — что там скрывается в его нутре, как эта машинка работает? Это неизбежно предстоит и очень скоро…
P.S. А может быть «искусственная интуиция» — это просто шутка из цикла «ученые шутят» или «программисты шутят»?
Искусственная интуиция потому искусственная, что «предвидит» то, что всем очевидно!
Искусственный интеллект «Очевидность» имитировал вчера интуицию слишком уж искусственно!
http://rosmanifest.info/?page_id=890&fbclid=IwAR1E4zjNu9NeifQHUpGjrBYnr5tjHdLS6U0HTKd82uSFww97tt2WZZTDYdk
Искусственная Интуиция artificial intuition
Можно игнорировать совершенно спокойно.
6-рефрейминг является одной из центральных техник НЛП во все времена.
То есть эти реплики можно игнорировать?
Записи 86-87 года. Это такое начало пиара своих дальнейших разработок в виде нхр и дхе?
Это не только начало пиара новых разработок.
Со стороны Б. это ещё и такой пинок в сторону Гриндера, который примерно в те времена стал утверждать, что 6-рефрейминг принадлежит только его гриндеровскому авторству.
</>
[pic]
...

zoroastp в посте Metapractice (оригинал в ЖЖ)

Бендлер в старых записях отзывается нелестно о идее работы с частями и 6ш рефрейминге.
Про части он говорит - что это расщепление и антропоморфизм может быть опасен.
Про 6шр, что он слишком долгий в плане получения результата.
Ну и все это в контексте объяснения субмодальностных техник.
Записи 86-87 года. Это такое начало пиара своих дальнейших разработок в виде нхр и дхе?
https://metapractice.livejournal.com/576374.html
Какие могут быть качественные признаки транса — или, назовём это иначе, "состояния повышенного внимания"?
Вот, парочку гипотез сформулировали:
— в обычном состоянии сознания голова идёт вслед глазам, в изменённом глаза вслед за головой
— в изменённом состоянии сознания инвертируется паттерн латеральной лицевой асимметрии
— ...а что ещё?
</>
[pic]
...

meta_eugzol в посте Metapractice (оригинал в ЖЖ)

Ссылку стоит исправить на http://search.metapractice.ru/items

Дочитали до конца.