Наши проекты:
Журнал · Discuz!ML · Wiki · DRKB · Помощь проекту |
||
ПРАВИЛА | FAQ | Помощь | Поиск | Участники | Календарь | Избранное | RSS |
[3.237.15.145] |
|
Сообщ.
#1
,
|
|
|
Слабых ИИ много. Сильный искусственный интеллект и не предвидится. Даже если все слабые ИИ запихнуть в одного робота. Проблема в том, что сильный ИИ способен к познанию. Слабый ИИ познавать мир не умеет. Слабому ИИ надо много раз показывать что правильно, а что нет. Своей головы у него нет. Для создания сильного ИИ сначала надо развить теорию познания до формализованного состояния. Формализованную теорию познания и надо залить в робота в виде программы. Среди философов мало программистов, а среди программистов мало философов. Это большая проблема на пути к ИИ.
|
Сообщ.
#2
,
|
|
|
Соответственно, специалисты по ИИ должны сосредоточиться на изучении всего спектра философской литературы. Необходимо в совершенстве освоить ту теорию познания (гносеологию), которая у нас есть. Только тогда появятся возможности для алгоритмизации процесса познания. Эта теория познания есть продукт труда философов на протяжении более, чем 2500 лет. Всё это время шёл весьма успешный процесс познания и о познании стало известно весьма много.
Познание на основе логического вывода - тупиковый путь, так как алгоритмы логического вывода экспоненциальные и могут рассматриваться лишь как вспомогательные для малых подзадач. Ещё более тупиковый путь - попытка создать ИИ на базе нейронных сетей. Это принципиально слабый ИИ, нуждающийся в огромных размеченных выборках, без гарантии сходимости процесса обучения. |
Сообщ.
#3
,
|
|
|
Извините, у вас какая-то каша в голове:
1. Философия ничего не даст. Гносеологии - индукция и дедукция. Дедукция - от общего к частному (от алгоритма к данным). Программирование - дедукция. Индукция - от частного к общему. Машинное обучение - индукция. Добавлено 2. Кто вам сказал, что NN только обучение с учителем? Есть ещё обучение с подкреплением. Читайте про АльфаГО компании deepmind. Как дипмайнд обучил нейронку играть в игру атари. Там нет размещённых наборов данных. Просто на входе экран игры и кол-во набранных очков на выходе. Перед машиной стоит задача максимизировать очки. Добавлено Сейчас специально посмотрели табличку за 2014 год по разным играм. Самый лучший результат в игре Video Pinball в 25 раз лучшего игрока-Человека. В игре pong и теннис - 143%. В 1.4 раза лучше человека. А вот с игрой Монтесума ревенж машина не справилась (0 очков) Добавлено В го миллион копий нейронки рубились по принципу должен остаться только 1 самый сильный. |
Сообщ.
#4
,
|
|
|
Имхо alphaGO - вершина индуктивного подхода. Если бы жизнь была игрой с чётко заданными правилами и целевой функцией в виде кол- ва очков, то это и был бы сильный ИИ.
Добавлено По мнению шолле, дальнейшее направление развития - синтез индуктивного и дедуктивного подходов. Как в диалектике Гегеля тезис+ антитезис=синтез. Добавлено Ведь наука и есть синтез 2 подходов. Был учёный муравей Аристотель, который тупо собирал факты. Его книга "физика" - клад различных фактов и наблюдений. И был учёный паук платон. Платон тянул науку из себя. Считал, что не надо изучать природу, а надо изучать идеальный математические объекты. Грубая природа для плебеев. На академии Платона была надпись: не знающим геометрии вход запрещён. Эвклид - ученик академии Платона. Добавлено И дальше Галилей придумал как синтезировать оба подхода. Так родился современный научный метод познания. И сейчас нужен некий подобный синтез. |
Сообщ.
#5
,
|
|
|
Кстати по поводу сложностей с разметкой наборов данных: в генеративных NLP-моделях с этим проблем нет. Скачивание из интернета набор текстов и убираете случайное слово в каждом предложении и дальше учите модель предсказывать слово. Хотя имхо GPT-3 - тупиковый путь. Да эта генервтивная модель чат- бот может писать связные сочинения. Написала прекрасное эссе на тему почему не стоит бояться ИИ. Имхо просто ловкий фокус - имитация сильного ИИ.
Добавлено Тоесть модель научилась предсказывать слова в корпусе текстов и затем пишет сочинение слово за словом по заданному началу (затравке) |
Сообщ.
#6
,
|
|
|
Слишком это похоже на игру где каждый пишет фразу и передаёт бумажка следующему игроку и так по кругу) тоже может получиться прикрльно!:)
|
Сообщ.
#7
,
|
|
|
Цитата доктор Рагин @ Извините, у вас какая-то каша в голове: 1. Философия ничего не даст. Гносеологии - индукция и дедукция. Дедукция - от общего к частному (от алгоритма к данным). Программирование - дедукция. Индукция - от частного к общему. Машинное обучение - индукция. То-то по гносеологии пишут многотомные издания. Вот например. И всё, чтоб объяснить, что индукция это от частного к общему, а дедукция - от общего к частному? Важно как осуществлять эти процессы. Помимо индукции и дедукции есть и другие методы познания. Добавлено Цитата доктор Рагин @ 2. Кто вам сказал, что NN только обучение с учителем? Есть ещё обучение с подкреплением. Читайте про АльфаГО компании deepmind. С подкреплением это с тем же учителем. Когда есть чёткие правила разметка данных делается сама собой - проиграл-выиграл. И рубись сам с собой пока не научишься. Кроме того, надо было подобрать архитектуру нейронки чтоб она более не менее училась этому ГО. И так под каждую задачу. ИИ должен быть универсальным. Работать вообще без вмешательства человека или с минимальным вмешательством. Человек показал задачу, ИИ подумал, дал ответ. Всё равно какую задачу - выиграть в шахматы или доказать теорему Ферма. Добавлено Цитата доктор Рагин @ [/size][/color] По мнению шолле, дальнейшее направление развития - синтез индуктивного и дедуктивного подходов. Как в диалектике Гегеля тезис+ антитезис=синтез. Синтез подходов муравья и паука - это путь пчелы у Бэкона. Добавлено Цитата доктор Рагин @ Ведь наука и есть синтез 2 подходов. Был учёный муравей Аристотель, который тупо собирал факты. И был учёный паук платон. Аристотель и Платон - философы, а не учёные. Философия не наука. Добавлено Познание наукой не ограничено. Теория познания разделяется на гносеологию - теорию познания вообще и эпистемологию - теорию научного познания. Наука не единственный метод познания. Про это часто забывают. Добавлено Цитата доктор Рагин @ Сейчас специально посмотрели табличку за 2014 год по разным играм. Самый лучший результат в игре Video Pinball в 25 раз лучшего игрока-Человека. В игре pong и теннис - 143%. В 1.4 раза лучше человека. А вот с игрой Монтесума ревенж машина не справилась (0 очков) Автомобиль бегает быстрее человека. ЭВМ быстрее считает. Ну и чо? Добавлено Узкоспециализированный инструмент (слабый ИИ) всегда лучше выполняет свою задачу, чем универсальный (сильный ИИ). Добавлено Алгоритмизация именно научного познания (в строгом смысле, который даёт философия науки) выполняется относительно легко, и есть тому примеры. Роботы-учёные. Задача учёного - проводить эксперименты и систематизировать их результаты по некоторой целевой функции. |
Сообщ.
#8
,
|
|
|
Цитата scrambrella @ адача учёного - проводить эксперименты и систематизировать их результаты по некоторой целевой функции. По какой целевой функции? Как раз проблема, что там нет целевой функции, которую надо максимизировать или минимизировать как в игре! А Вы все-таки подумайте над идеей Франсуа Шолле о синтезе символьного ИИ с нейронкой. На конфренции Сбера по ИИ эту же идею высказала индуска (лаборатория ИИ компании Интел, если не путаю) Добавлено ИМХО в этом и заключается Проблема. Мы умеем строить НС, которые оптимизируют веса в соответствии с заданной целевой ф-цией. И дальше развитие останавливается. Как живой организм, который идеально приспособился к окружающей среде и на этом закончил развиваться. Творческий потенциал нулевой, полная неспособность генерировать новые идеи. |
Сообщ.
#9
,
|
|
|
Цитата доктор Рагин @ По какой целевой функции? Как раз проблема, что там нет целевой функции, которую надо максимизировать или минимизировать как в игре! В случае роботов-биохимиков Адама и Евы целевая функция была. Один робот искал лекарство от малярии, другой повышал урожайность какой-то травы. Роботы круглые сутки смешивают реактивы во всех комбинациях и проверяют эффект от смеси. Учёный-человек такое число опытов провести неспособен. Если нет целевой функции - то к чёрту таких учёных. Учёный должен знать чего он хочет получить своим исследованием. Бывает практическая цель - как у упомянутых роботов (прикладная наука). Бывает цель объяснить некоторое явление (фундаментальная наука). В этом случае наука - это построение формул интерполяции экспериментальных табличных данных. Короткая формула считается лучше, чем длинная. Других целей у естественных и технических наук нет. И то и то прекрасно может делать робот даже без ИИ. Элементы ИИ приводят к сокращению числа экспериментов в первом случае (но с риском упустить лучший результат) и к более коротким формулам интерполяции во втором случае. С гуманитариями всё сложнее. На нынешнем этапе развития ИИ здесь не у дел. Это область сильного ИИ. |
Сообщ.
#10
,
|
|
|
Ну это как алхимики работали. Тупо смешивали разные вещества. Обычно ученый сначала много думает, а не наугад смешивает растворы или перебирает все возможные математические формулы.
|
Сообщ.
#11
,
|
|
|
Цитата доктор Рагин @ А вот с игрой Монтесума ревенж машина не справилась (0 очков) Говорят что написали для Монтесумы бота. Алгоритмы для ГО не проканали в этой игре. Что-то подкрутили в алгоритме обучения и бот заиграл. Всё равно это не более, чем очередной хороший бот для конкретной игры. Ведущую роль опять играл человек. |
Сообщ.
#12
,
|
|
|
Цитата scrambrella @ Всё равно это не более, чем очередной хороший бот для конкретной игры. Ведущую роль опять играл человек. Вы ошибаетесь! В 2016 DeepMind выпустила AlphaZero и там все честно без читинга. AlphaGo тренировалась на партиях людей, в качестве обучающего набора брались лучшие партии в Го. Потом система ДООБУЧАЛАСЬ на чемпионате со своими копиями. А альфазерро действительно училась с НУЛЯ! Потом взяли систему и из коробки без всякой подкрутки научили играть в шахматы. За 24 часа AlphZero научилась играть лучше лучшей шахматной программы. Сыграла миллиарды партий сама с собой (каждая партия - 0.4 секунды). ИИ демонстрирует уже уровень собаки! |
Сообщ.
#13
,
|
|
|
Цитата доктор Рагин @ ИИ демонстрирует уже уровень собаки! Собаки играют лучше гроссмейстеров? Кто нейронку то собирал под игру в шахматы? Люди или другой ИИ? Да и вообще, не верю я этому гуглю. Пусть устроят матч хотя бы против Карпова. Если всё правда, то да, хорошая демонстрация возможностей машин лёрнинг. Но шахматы это всего 64 клетки и 32 фигуры. Далеко до ИИ, далеко, блин. |
Сообщ.
#14
,
|
|
|
Цитата scrambrella @ Пусть устроят матч хотя бы против Карпова. О чём ты? Людишек в шахматы даже смартфон обыграет сейчас. Да и в го какая-нибудь leela (считай, open source версия Alpha Go Zero), запущенная на смарте, сможет обыграть абсолютное большинство гошников. Сам видел, как она 6 дана обыгрывает |
Сообщ.
#15
,
|
|
|
Цитата OpenGL @ Цитата scrambrella @ Пусть устроят матч хотя бы против Карпова. О чём ты? Людишек в шахматы даже смартфон обыграет сейчас. Да и в го какая-нибудь leela (считай, open source версия Alpha Go Zero), запущенная на смарте, сможет обыграть абсолютное большинство гошников. Сам видел, как она 6 дана обыгрывает Гугль сделал заявление, что его прога круче всех и на следующий день сказал, что больше с этой прогой не работает. Прогу никто не видел. За большие деньги гугль сделал публикацию в Nature, хотя к естественным наукам их поделка не имеет никакого отношения. Пусть смартфон обыграют. Только их прога тоже должна работать на смартфоне без выхода в интернет. Иначе не честно. |
Сообщ.
#16
,
|
|
|
Ты не в теме Leela была написана по публикациям гугла, и она, разумеется, безо всякого интернета работает. Можешь сам убедиться
|
Сообщ.
#17
,
|
|
|
Цитата OpenGL @ Ты не в теме Leela была написана по публикациям гугла, и она, разумеется, безо всякого интернета работает. Можешь сам убедиться Предлагаете собирать этот говнокод. Людишек обыгрывают проприетарные движки, а не поделки студентов. |
Сообщ.
#18
,
|
|
|
Цитата scrambrella @ Людишек обыгрывают проприетарные движки, а не поделки студентов. Эта "поделка студентов" легко выиграет у любого человека, если запустить её на компе с хоть сколько-нибудь приличной видеокартой. Даже версию Альфаго, которая с Ли Седолем играла, она уделала бы без проблем. Да и вообще, что сложного в том, чтобы закодить нейросетку по её описанию? В общем-то действительно даже студент справится. |
Сообщ.
#19
,
|
|
|
У меня совершенно нет желания возиться с превращением кодов в работающую программу. Я привык работать с программами из коробки.
|
Сообщ.
#20
,
|
|
|
А все-таки после прочтения про глубокое обучение с подкреплением есть повод прийти в полный восторг! Сначала идут случайные действия, но по мере накопления игрового опыта и обучения нейронки программа начинает использовать этот игровой опыт и выбирать выигрышные ходы. Самое удивительное, что всего после 900 раундов-игровых эпизодов программа начинает играть идеально! Если это не ИИ на уровне мухи или пчелы или муравья, то что это?
Добавлено Поразила простота этой НС. В сетке всего 2 промежуточных слоя по 64 нейрона. Правда и игра простейшая: 4 параметра на вход и 2 выхода (стрелка вправо или влево). В более сложных играх приходится передавать картинку на вход и обрабатывать сверточной НС. |
Сообщ.
#21
,
|
|
|
Цитата доктор Рагин @ что всего после 900 раундов-игровых эпизодов программа начинает играть идеально! В среднем Учится оно быстрее человека раза в 4. Цитата доктор Рагин @ Поразила простота этой НС. В сетке всего 2 промежуточных слоя по 64 нейрона. Правда и игра простейшая: 4 параметра на вход и 2 выхода (стрелка вправо или влево). В более сложных играх приходится передавать картинку на вход и обрабатывать сверточной НС. И после этого Вы ИИ называете идеальным? Это же баг ИИ. Она же не сможет мыслить пространственно, только локально. Я будучи 4Кю выносил противникам на этом. Цитата scrambrella @ Говорят что написали для Монтесумы бота. Алгоритмы для ГО не проканали в этой игре. Что-то подкрутили в алгоритме обучения и бот заиграл. Всё равно это не более, чем очередной хороший бот для конкретной игры. Ведущую роль опять играл человек. Есть попытки учить ИИ по текстам. С начало он учится по руководстве к игре, а потом уже до обучается в игре. Цитата scrambrella @ С гуманитариями всё сложнее. На нынешнем этапе развития ИИ здесь не у дел. Это область сильного ИИ. Гумманитарии пишут тексты на основе других текстов. Генеративные нейронные сети такие как GPT справляется чуть хуже средне статистического человека. Конечно при условии что её предварительно обучили именно на нужной области знаний. Впрочем как и человека. А широкий кругозор только вредит ЕИ и ИИ. Цитата в среднем у человека от рождения до года формируется, и в годик начинает работать предметное мышление (когда в уме держаться только конкретные предметы, без какого-либо обобщения); от года до трех формируется и в три года начинает работать образное мышление (когда предметы группируются в образы), от 3 лет и до 7-8 формируется и в 7-8 лет начинает работать схематическое мышление (взаимодействия и связи образов); с 7-8 до 14-15 формируется и начинает работать понятийное, оно же абстрактное мышление (при котором невопринимаемые качества обозначаются неким словом-понятием, и дальше умозаключения делаются с этим словом-понятием, называемом еще абстракцией, так, словно это реальный образ или процесс). Современные нейросети на уровне формирования схематехнического мышления и далеко до образного. |
Сообщ.
#22
,
|
|
|
Цитата доктор Рагин @ Самое удивительное, что всего после 900 раундов-игровых эпизодов программа начинает играть идеально! Если это не ИИ на уровне мухи или пчелы или муравья, то что это? В крестики-нолики? Добавлено Цитата Pavia @ Гумманитарии пишут тексты на основе других текстов. Генеративные нейронные сети такие как GPT справляется чуть хуже средне статистического человека. Кроме того, личный субъективный опыт гуманитария неизбежно влияет на его тексты. У ИИ этого нет. Поэтому текст робота видно сразу. Добавлено Теория познания, блин. Познание только по текстам невозможно. Текст не есть реальность. Это в лучшем случае форма. А должно быть единство формы и содержания. |
Сообщ.
#23
,
|
|
|
GPT-3 вообще не думает. Он тупо предсказывает следующее слово в тексте и постепенно слово за словом генерирует текст. Спрашивали у GPT-3: что тяжелее? карандаш или гиря?
Он не знает. Не нашел в тексте точного веса карандаша. В него просто загрузили корпус текстов и научили предсказывать. |
Сообщ.
#24
,
|
|
|
Или на вопрос: "кто был президентом США в 1000 году?". GPT-3 растерянно перемотал весь обучающий корпус текстов, не нашел ответа и выдал "не знаю".
Нормальный серьезный писатель пишет роман и продумывает идею. Тут мы имеем писателя-имитатора. У него цель написать детектив точно также как писала Агата Кристи. У него есть корпус текстов Агаты Кристи и он после каждого написанного слова думает, а какое следующее слово написала бы Агата Кристи? Цель: предсказать следующее слово на основе заложенного корпуса текстов. Добавлено ИМХО на базе GPT-3 сильный ИИ вырастить не получится, а на базе обучения с подкреплением получится. Это необходимая база разума и дальше от нее можно отталкиваться и дальше развиваться. У этой технологии есть потенциал развития ИМХО! Добавлено Цитата scrambrella @ В крестики-нолики? Нет. Там стопка тарелок стоит на движущейся тележке и стопка падает и надо балансировать тележку вправо-влево чтобы тарелки не упали. Но конкретная игра не имеет значения. |
Сообщ.
#25
,
|
|
|
Сильный ИИ сам может ставить себе цели. Учиться с заданной целевой функцией надо уметь, но этого мало.
До серьёзных проблем с кучей локальных минимумов разработчики ИИ ещё не добрались. Градиентное обучение неизбежно в одном из них остановится. Пока видеокарт хватает чтоб начиная с разных точек попасть таки в глобальный минимум. |
Сообщ.
#26
,
|
|
|
Цитата scrambrella @ ильный ИИ сам может ставить себе цели. Учиться с заданной целевой функцией надо уметь, но этого мало. Но все животные включая обезьян сами себе цели не ставят. Им целевую функцию природа поставила (вернее сразу 3 целевые ф-ции): есть, убегать от врагов и размножаться. Это сводится с 1 цели: наплодить как можно больше потомков в течение жизни. У нас уже с ребятами был спор по поводу цели жизни животных. Естественно, сознательно они перед собой такой цели не ставят. Им эту цель матушка-природа поставила. Добавлено И все-таки, если мы примем ТЭ Дарвина, что человек произошел от обезьяны, мы сделали скачек от существа без сознательных целей к существу, которое может само ставить перед собой цели. Иногда, даже кажется, что наш разросшийся мозг - паразит, который использует тело хозяина в своих целях. Например, человек может стать монахом. На меня в свое время сильное впечатление произвела Секта скопцов. Они себя оскопляли во имя Веры. Староверы сознательно шли на самосожжение. Наш мозг действительно может ставить очень странные цели. Добавлено Цитата доктор Рагин @ Это сводится с 1 цели: наплодить как можно больше потомков в течение жизни. Правда, уточнение: скорее у животных цель - не обязательно прямые потомки должны сохранить жизнь. Например, у бесплодных рабочих пчел вообще нет прямых потомков. Они все бросаются защищать улей при нападении и все гибнут. У бабуинов развито самопожертвование во имя стаи, 2 молодых бабуина перегрызли горло леопарду и сами погибли как Герои при этом. Наверняка, в этой стае проходят парады в их честь каждый год и бабуины возлагают цветы к могилам героев. Ваша собака может отдать жизнь за вас, потому что считает Вас членом своей стаи. Все члены стаи - родственники и косвенные потомки. Добавлено Цитата доктор Рагин @ Тут мы имеем писателя-имитатора. Меня еще раздражает их дешевый пиар-ход. Они сделали машину из 17 миллиардов нейронов и потребляющую мощность целой электростанции. NN сгенерировала школьное сочинение на тему "почему не стоит бояться ИИ". Это так мило, я сейчас заплачу А если в нейронку запихнуть сценарий Терминатора и Матрицы, какой текст будет сгенерирован? Чего они нас за лохов держат? У их машины не своей точки зрения, это просто ловкая имитация, ловкая манипуляция с текстом Добавлено В общем мой вывод: животное ничем принципиально не отличается от игрового агента. Все животные находятся в рамках игры, не могут отказаться есть, заниматься сексом и убегать от хищников. И следовательно создание игровых агентов - хорошая база сильного ИИ. |
Сообщ.
#27
,
|
|
|
Цитата доктор Рагин @ Но все животные включая обезьян сами себе цели не ставят. Им целевую функцию природа поставила (вернее сразу 3 целевые ф-ции): есть, убегать от врагов и размножаться. Это люди им такие функции поставили. Безусловно они играют важную роль. Люди посчитали, что других целевых функций у животных нет. Может это от недостатка ума у нас? Добавлено Цитата доктор Рагин @ Все животные находятся в рамках игры, не могут отказаться есть, заниматься сексом и убегать от хищников. Сами откажитесь. От секса, положим откажетесь. А вот как вы откажетесь от еды и не будете убегать от хищников - интересно будет посмотреть. У людей, кстати, секс чаще, чем у животных! У животных он строго по расписанию, примерно раз в полгода. |
Сообщ.
#28
,
|
|
|
Цитата scrambrella @ У людей, кстати, секс чаще, чем у животных! Бонобо смотрят на это заявление с недоумением |
Сообщ.
#29
,
|
|
|
Кролики не в счёт. У высокоразвитых животных секс бывает редко. И только человек решил, что без секса раз в 3 дня или чаще нормальному человеку не обойтись.
В 18—29 лет пары должны это делать 112 раз в год. У молодых людей, у которых интимная близость происходит два раза в неделю, наблюдается более высокий уровень антител по сравнению с теми, кто имеет меньшее количество сексуальных контактов. В возрастной группе от 30 до 39 лет — 86 раз в год. В возрасте 40—49 лет секс должен быть 69 раз в год. После 50 лет средняя частота снижается до нескольких раз в месяц. Информация с сайта: https://love-is.org/skolko-raz-v-nedelju-nu...imatsya-seksom/ |
Сообщ.
#30
,
|
|
|
Цитата scrambrella @ У людей, кстати, секс чаще, чем у животных! Цитата OpenGL @ Бонобо смотрят на это заявление с недоумением Цитата scrambrella @ Кролики не в счёт Бонобо - не кролики, а самый умный вид шимпанзе и они действительно очень часто сексятся. И, кстати, есть данные, что последние поколения человеков трахаются реже, чем наши дедушки. |
Сообщ.
#31
,
|
|
|
Цитата ya2500 @ Бонобо - не кролики, а самый умный вид шимпанзе и они действительно очень часто сексятся. Обезьяна ≡ человек |
Сообщ.
#32
,
|
|
|
Цитата scrambrella @ Буду теперь записывать в блокнотик и считать В 18—29 лет пары должны это делать 112 раз в год. У молодых людей, у которых интимная близость происходит два раза в неделю, наблюдается более высокий уровень антител по сравнению с теми, кто имеет меньшее количество сексуальных контактов. В возрастной группе от 30 до 39 лет — 86 раз в год. В возрасте 40—49 лет секс должен быть 69 раз в год. После 50 лет средняя частота снижается до нескольких раз в месяц. |
Сообщ.
#33
,
|
|
|
Лучше займитесь гносеологией. Может именно вы совершите революцию в ИИ. Секс не настраивает на философский лад.
|
Сообщ.
#34
,
|
|
|
Спасибо большое за ваши мысли, очень интересно. Особенно про изучение философской литературы!
|
Сообщ.
#35
,
|
|
|
Цитата Poli.Zakharowa @ Спасибо большое за ваши мысли, очень интересно. Особенно про изучение философской литературы! Да, тут думать надо, это вам не код писать. |
Сообщ.
#36
,
|
|
|
Цитата доктор Рагин @ А если в нейронку запихнуть сценарий Терминатора и Матрицы, какой текст будет сгенерирован? Чего они нас за лохов держат? У их машины не своей точки зрения, это просто ловкая имитация, ловкая манипуляция с текстом было бы интересно поиграться с оригинальной GPT-3. Конечно, если текст затравку сделать в стиле ИИ-апокалипсиса то и результирующий текст мы получим соответствующий. Но зачем людей пугать такими экспериментами, ещё испугаются будут требовать казнить ГПТ и его создателей а на GPT-4 денег не дадут. |
Сообщ.
#37
,
|
|
|
ChatGPT
|