На главную
ПРАВИЛА FAQ Помощь Участники Календарь Избранное DigiMania RSS
msm.ru
! Правила раздела Наука и Техника.
В этом разделе обсуждается наука, техническая и гуманитарная, а также философия и другие интересные вещи :)
Пожалуйста, примите во внимание следующее:

1. Приветствуются разные темы. Например, если Вы хотите рассказать что-нибудь интересное из области естественных или гуманитарных наук, добро пожаловать. Но не надо публиковать не подкрепленных фактами опровержений современной науке. Сначала попробуйте найти ошибку у себя - скорее всего она именно в Ваших рассуждениях.
2. Пожалуйста, не путайте философию и вымысел. В этом разделе не обсуждается мистика, магия и прочие темы подобного рода.
3. Вы можете выражать аргументированную критику по любому вопросу. Но писать, "это глупость" или "современные ученые - дураки" не надо. Просто потому, что в этом случае Вы рискуете получить наказание от модератора.
4. Если Вы нашли на просторах Интернета интересную новость из области науки, пожалуйста, опубликуйте ее в специальном разделе, и не забудьте указать источник.

Приятного общения!
Модераторы: Братец Лис, B.V.
Страницы: (44) « Первая ... 42 43 [44]   ( Перейти к последнему сообщению )  
> ИИ наступает
    Нигде не доказывается.
    Более того уже доказано, что Жизнь полна по Тьюрингу (способна вычислить любую функцию) и поазано, что в ней возможно реплицирование.

    Этого достаточно, чтобы считать доказанным, что в ней теоретически может зародиться "жизнь". Только вот вероятность этого, похоже, на много порядков ниже, чем самопроизвольное зарождение жизни в пробирке в лаборатории.
    Всё написанное выше это всего лишь моё мнение, возможно ошибочное.
      Игра жизнь полна по Тьюрингу (где-то видел "компьютер", созданный на её базе), а это значит, что и ИИ можно сделать при достаточном размере поля.
      Подпись была включена в связи с окончанием срока наказания
        Учитывая фото ниже хочу спросить: нучо, мужики! Мы уже доминируем в мире в области систем искусственного разума? :rolleyes:

        user posted image
        Написать код, понятный машине, и дурак сможет. И только хороший программист сможет написать код, понятный людям
          Одни с годами умнеют, другие становятся старше.
            Цитата Qraizer @
            Может ли ИИ убивать специально


            - интересный чувак ведущий там
            но он совсем не понимает опасности ИИ
            Скрытый текст
            в последней части видео разными словами наповторял о том, что ИИ не зачем захватывать мир да и не сумеет он это намеренно
            НО настоящая проблема в том, что прогресс приводит к такому усложнению когда человек теряет контроль над приятием решений
            даже безо всякого ИИ
            когда какие-то экспертные системы подсказывают покупать/продавать ценные бумаги; какой сделать ход в шахматах; начинать ли войну
            и хрен разберёшься, какие причины стоят за этими решениями
            и не случилось ли какой-то ошибки, отклонения от поставленной цели
            а просто приходится тупо следовать указаниям, чтобы выиграть в шахматы по переписке; чтобы заработать денег на форексе; чтобы сохранить государство
            или
            допустим даже
            что не случилось никакой ошибки
            и никто не закладывал вредоносных действий намеренно
            но
            может так случиться, что для достижения поставленной цели система сотворит какую-то херню, причём хрен разберёшь какую именно
            у Станислава Лема был замечательный пример
            когда система управляла государством с тем, чтобы граждане были максимально счастливы
            и принимала кучу решений, например, по тому, какие товары у каких стран закупать
            в итоге
            благодаря поставкам некачественной воды с какими-то примесями, граждане постепенно становились счастливыми дебилами
            и за всей кучей принимаемых решений
            хрен отследишь эту связь


            про Лема, однако, я сильно переврал. Точная цитата есть здесь:

            Безопасность искусственного интеллекта, или Когда появится «Скайнет»?
            https://www.kaspersky.ru/blog/artificial-in...ce-safety/8077/

            Добавлено
            + ещё вот что(из статьи по ссылке):

            Цитата
            По сути необходимые предохранители, ограничивающие деятельность ИИ, напоминают «песочницы», часто используемые для безопасности в современных средах наподобие Java или Flash.

            Хорошо известно, что идеальных «песочниц» не существует и побег оттуда вполне возможен, как это, например, продемонстрировано недавно нашумевшей уязвимостью Venom. ИИ, сочетающий гибкость и вычислительную мощь, является очень хорошим кандидатом на роль тестировщика, ищущего уязвимости в реализации собственной «песочницы».
            - Роман Ямпольский, эксперт по искусственному интеллекту в одном из интервью(ссылки там приведены).
            "Гарри Поттер и методы рационального мышления" Элиезер Юдковский
            "Harry Potter and the Methods of Rationality" Eliezer Yudkowsky
              Цитата ya2500 @
              когда какие-то экспертные системы подсказывают покупать/продавать ценные бумаги; какой сделать ход в шахматах; начинать ли войну
              и хрен разберёшься, какие причины стоят за этими решениями

              А про это ещё в ложной слепоте писали - мол, ИИ выдаёт решения проблем, при этом человек не в состоянии ни понять проблему, ни её решение :)
              Подпись была включена в связи с окончанием срока наказания
                Цитата ya2500 @
                в последней части видео разными словами наповторял о том, что ИИ не зачем захватывать мир да и не сумеет он это намеренно
                НО настоящая проблема в том, что прогресс приводит к такому усложнению когда человек теряет контроль над приятием решений
                Нет, он лишь сказал, что ИИ будет ровно таким, каким мы его создадим. ... Со всеми вытекающими из наших собственных качеств. ... Угу. Однако он не зря упомянул в конце про самосознание. ...

                Добавлено
                Хорошо. Перефразирую. Пока мы на разобрались с самосознанием, собственным восприятием личности... или восприятием собственной личности, как правильно? ... не надо бояться ИИ, надо бояться себя.
                Одни с годами умнеют, другие становятся старше.
                  Цитата Qraizer @
                  Пока мы на разобрались с самосознанием, собственным восприятием личности... или восприятием собственной личности, как правильно? ... не надо бояться ИИ, надо бояться себя.

                  А зачем с этим разбираться? Ни один человек не в состоянии понять, почему AlphaGo выбирает тот или иной ход, включая её создателей, если не считать, конечно, объяснения "на этой ноде достигается максимум целевой функции", однако программа играет более чем разумно. Возможно, ИИ с самосознанием появится примерно так же - это будет что-то, что внешне ведёт себя как существо обладающее самосознанием, а почему оно делает именно так - толком неясно из-за его сложности.
                  Подпись была включена в связи с окончанием срока наказания
                    Так не об этом речь. Фабулой видео являлось, что мы – существа творческие, а ИИ нет. Мы можем придумать новый сценарий очередного видосика, ИИ не может. Да, ИИ может обучаться, и мы это можем запрограммировать. Да, в результате такой ИИ рано или поздно превзойдёт нас в возможностях, которым мы с ним можем обучаться. Но запрограммировать творить у нас не получается, разве что на уровне метода Монте-Карло, авось что-то ценное и сотворится. В любом случае, оценить ценность полученного творения сможем опять-таки только мы, но не ИИ.
                    Отсюда и следует, что ИИ не будет иметь качеств, которые мы изначально в него не вложим. Вот количеств – это да, но не качеств. Ключом к преодолению этой преграды возможно является осознание себя, ибо на обучении ценить свои личные качества опирается наша – уникальная пока для нас – способность творить и оценивать результат.
                    Одни с годами умнеют, другие становятся старше.
                      Да? Ну я не смотрел - не люблю видео этого товарища :D Тогда тут всё упирается в то, что такое творчество - лично я считаю, что поиск стратегий в играх это оно и есть. Да и смог бы человек творить, если бы вместо миллионов входных и выходных нейронов, соединённых с клеточными рецепторами его тела, у него были бы сотни нейронов, описывающих состояние доски и на него влияющих? Тесная какая-то вселенная - не развернёшься в ней с творчеством в более классическом понимании. Даже для того, чтобы нецензурное слово фишками на доске написать, уже надо обладать уймой знаний, выходящих за её рамки, львиная часть из которых к тому же у человека присутствует в интуитивном, а не явном виде.
                      Подпись была включена в связи с окончанием срока наказания
                        Цитата Qraizer @
                        ИИ не будет иметь качеств, которые мы изначально в него не вложим. Вот количеств – это да, но не качеств.
                        :whistle: Ему и не надо их иметь. Второй закон диалектики всё сам сделает. :yes:
                          Цитата Qraizer @
                          Хорошо. Перефразирую. Пока мы на разобрались с самосознанием, собственным восприятием личности... или восприятием собственной личности, как правильно? ... не надо бояться ИИ, надо бояться себя.
                          Абсолютно бесполезный совет же. Что значит "бояться себя"?
                          error: 'long long long' is too long for GCC
                            Подпись была включена в связи с окончанием срока наказания
                            1 пользователей читают эту тему (1 гостей и 0 скрытых пользователей)
                            0 пользователей:
                            Страницы: (44) « Первая ... 42 43 [44] 


                            Рейтинг@Mail.ru
                            [ Script Execution time: 0,1493 ]   [ 14 queries used ]   [ Generated: 23.07.18, 17:32 GMT ]