![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Еще не много лет назад подобный заголовок вызвал бы у меня ироническую улыбку. Не буду объяснять почему, итак ясно.
Однако, то что происходит сейчас под зонтиком с этим ярлыком начинает вызывать серьезную озабоченность.
Начну с того, что сам зонтик за последние лет 15-25 приобрел новое обличье. Во-первых, появились некоторые новые технологии, во-вторых, сформировалось соответвующее научное сообщество, которое ковыряется в рамках этих технологий. Конкретные имена этих технологий "эволютивные методы" и "глубинное обучение" и иже с ними.
Замечу, что формирование сообщества -- это прекрасно с научной точки зрения. Однако возникает и негативный политический тренд. Допустим, что толпа людей занимается фигней. Раз это толпа, то доказать миру, что это фигня становится совсем не просто. Лысенко, типа.
С точки зрения практико-политической, апологеты указанной группы методов в значительной мере паразитируют на затертой мечте политиков и менеджеров шестидесятых-семидисятых прошлого столетия.
Типичная речевка последних на совещаниях, скажем, в обкомах была:
-- Мы заводим все необходимые данные в электронно-вычислительную машину, а дальше она все делает сама...
Сейчас к той же самой цели указанное сообщество стремится с помощью многослойных нейронных сетей и эволютивных методов. Есть обучающая последовательность, есть пробная последовательность. На первой автоматически подбираются какие-то коэффициенты сети, а на второй проверяется качество решения сетью ее целевой задачи.
Особенно забавно мне читать книжки про подобные методы, когда их авторы приводят в качестве примеров целевой задачи нечто из тех областей, в которых я кое-что придумал сам. Мои методы работают без всякой нейронной сети много лучше, чем то, что они мне предъявляют как убедительный результат эффективности своих методов самообучения сетей.
Мои методы работают лучше по той простой причине, что использует тонкие, специфические особенности проблемы, а нейронная сеть работает общими методами, которые ничего не знают про специфику проблемы, а как-то должа ее нащупать с помощью подбора каких-то коэффициентов.
Детали, которые обсасывают на обсуждениях своих достижений эксперты в этих областях искусственного интеллекта выглядят примерно так:
-- А почему у тебя соотношение обучающей выборки к пробной 70% к 30%, а не 90% к 10%?
-- А потому что автор книжки Х предлагает именно такую пропорцию.
Найденные оптимальные коэффициенты никому из них ничего не говорят о специфике тестовой задачи. Допустим, что в результате на пробной выборке оказалось, что натренированная нейронная сеть в 85% работает верно, а в 15% -- нет. Что это говорит?
А ничего. Потому что дальнейшее это чистые спекуляции.
Если, например, речь идет о диагностике заболевания по совокупности входных данных. Кто-то скажет, для данного заболевания в среднем по всем врачам всех поликлиник ошибка 15% -- это совсем неплохо.
А другой возразит: "В среднем может и так, но почему-то у профессора Холдина ошибка составляла не более 1%".
Фокус в том, что знатоки новомодных технологий никогда не будут знать почему у них работают эти 85%, а не работают те 15%. В отличии от профессора Холдина.
Возьмем более наглядный пример: атомные электростанции. Физикам-атомщикам вполне понятны все факторы риска, которые могут привести к тем или иным нештатным ситуациям. От утечки радиоактивных продуктов в окружающую среду, до ядерного взрыва из-за достижения критической массы... Эти физики постепенно, улучшая конструкцию станций, борются к каждым из факторов риска. А теперь представим, что это делают специалисты по нейронным сетям, не вникая в конкретную специфику физических процессов, а просто подбирая экспериментальным путем какие-то коэффициенты многослойной нейронной сети. Страшно стало, да?
Я это все к тому, что того, что сейчас называется искусственным интеллектом надо действительно опасаться.
За этим стоит толпа вполне безответственных людей, которые паразитируют на некоторых эффектных достижениях, но никогда не будут виноваты, случись что...
Да и поздно будет искать виноватых.
no subject
Date: 18 Dec 2017 03:40 (UTC)no subject
Date: 18 Dec 2017 04:00 (UTC)no subject
Date: 18 Dec 2017 10:21 (UTC)поэтому все глупости, которые нужны для обучения - так нельзя! все равно будут сделаны...
китайцы идут еще и таким путем - https://12-natali.dreamwidth.org/42104.html и не факт, что зря. и не факт, что не опасно менять ДНК.
мы ж на перевале в другую цифровую жизнь, смена Цивилизаций.