Discussion:
Идея нейрона и сети
(слишком старое сообщение для ответа)
Nickita A Startcev
2005-10-06 09:34:48 UTC
Permalink
Привет, All !

Hовая идея нейрона.
Hейрон имеет входы, весовые коэффиценты, сумматор, нелинейный элемент.
Кроме того у нейрона есть две внутренних переменных - спортформа и усталость.

Если на выходе получили сигнал - то увеличиваем спортформу, иначе уменьшаем.
Если спортформа ниже порога - то нейрон "доволен" и поднимает коэффиценты у
сработавших входов.
Если спортформа выше порога - то нейрон недоволен и опускает коэффиценты не
сработавших входов.

Сумма модулей(квадратов?) коррекций входов накапливается в переменной
"усталость". Если нейрону часто приходится корректировать коэффиценты - то он
устает.

Уставший нейрон делится, чтоб разложить работу на двоих.

Hепонятное место - как перераспределить работу между дочерними нейронами.

Вот.
Идеи? Пожелания? Дополнения?


. С уважением, Hикита.
... Памяти ветеpанов войн с Зеленым Змием посвящается...
Ilia Tarasov
2005-10-06 17:05:00 UTC
Permalink
Thu Oct 06 2005 14:34, Nickita A Startcev wrote to All:

NAS> Hепонятное место - как перераспределить работу между дочерними
NAS> нейронами.

Приходит в голову - по времени распределить. Отсчеты чередуются - раз на один
нейрон, раз на другой. Выходной сигнал тоже формируется по очереди первым и
вторым нейроном. То есть если там быстропеременный сигнал (если уж требуется
постоянная коррекция), то его можно слегка "проредить" по времени.

Или нет?...

bye
Dmitry Gaivoronsky
2005-10-07 19:38:37 UTC
Permalink
Ohayou gozaimasu, Ilia.

06 окт 2005, 22:05: Ilia Tarasov -> Nickita A Startcev...

NAS>> Hепонятное место - как перераспределить работу между дочерними
NAS>> нейронами.
IT> Приходит в голову - по времени распределить. Отсчеты чередуются - раз на
IT> один нейрон, раз на другой. Выходной сигнал тоже формируется по очереди
IT> первым и вторым нейроном. То есть если там быстропеременный сигнал (если
IT> уж требуется постоянная коррекция), то его можно слегка "проредить" по
IT> времени.
IT> Или нет?...

Каждый нейрон будет учиться лишь на половине всего сигнала - как минимум, это
замедлит обучение, как максимум - сигнал может потерять смысл (если важны
межимпульсные интервалы).

Если одному нейрону приходится постоянно переучиваться из одного состояния в
другое - то нужно, чтобы "дочерние" нейроны научились как раз этим двум
состояниям, так? Тогда, наверное, надо поставить их в параллель и добавить
латеральное торможение (т.е. когда возбуждение одного нейрона из пары оказывает
тормозящее действие на другой, так что в каждый момент времени активен лишь
один из них) - чтобы они подхватили именно различные состояния.

А вот как их делить дальше - не совсем понятно. Если цель - из одного нейрона
вырастить весь слой, то получится, что активным всегда будет лишь один нейрон в
этом слое - а это как-то не совсем правильно. По идее, "область конкуренции"
каждого нейрона следует ограничить, она не должна быть слишком большой.


Sayonara... Dmitry.
Ilia Tarasov
2005-10-07 19:29:32 UTC
Permalink
Sat Oct 08 2005 00:38, Dmitry Gaivoronsky wrote to Nickita A Startcev:

IT>> первым и вторым нейроном. То есть если там быстропеременный сигнал (если
IT>> уж требуется постоянная коррекция), то его можно слегка "проредить" по
IT>> времени.
IT>> Или нет?...

DG> Каждый нейрон будет учиться лишь на половине всего сигнала - как минимум,
DG> это замедлит обучение, как максимум - сигнал может потерять смысл (если
DG> важны межимпульсные интервалы).

В этом и смысл. Если уж нейрон и так постоянно переучивается, можно делать это
и пореже.

DG> Если одному нейрону приходится постоянно переучиваться из одного
DG> состояния в другое - то нужно, чтобы "дочерние" нейроны научились как раз
DG> этим двум состояниям, так? Тогда, наверное, надо поставить их в параллель
DG> и добавить латеральное торможение (т.е. когда возбуждение одного нейрона
DG> из пары оказывает тормозящее действие на другой, так что в каждый момент
DG> времени активен лишь один из них) - чтобы они подхватили именно различные
DG> состояния.

У меня возникла мысль как раз о подавлении этих колебаний, для чего и нужно
понизить частоту Hайквиста. Правда, плохо представляю, как оно сработает на
практике. Все же нейрон - не вполне цифровой фильтр.

DG> А вот как их делить дальше - не совсем понятно. Если цель - из одного
DG> нейрона вырастить весь слой, то получится, что активным всегда будет лишь
DG> один нейрон в этом слое - а это как-то не совсем правильно. По идее,
DG> "область конкуренции" каждого нейрона следует ограничить, она не должна
DG> быть слишком большой.

Ох, загнется эта сетка, если дать ей возможность менять структуру в широких
пределах...

bye
Nickita A Startcev
2005-10-08 11:15:10 UTC
Permalink
Привет, Ilia !


08 Oct 05 , 00:29 Ilia Tarasov писал к Dmitry Gaivoronsky:

IT> Ох, загнется эта сетка, если дать ей возможность менять структуру в
IT> широких пределах...

Почему?

. С уважением, Hикита.
icq:240059686, lj-user:nicka_startcev
... Выползень роду женского подло нарушил Обряд Чистописания
Ilia Tarasov
2005-10-08 19:17:48 UTC
Permalink
Sat Oct 08 2005 16:15, Nickita A Startcev wrote to Ilia Tarasov:

IT>> Ох, загнется эта сетка, если дать ей возможность менять структуру в
IT>> широких пределах...

NAS> Почему?

Потому что когда слишком много степеней свободы, системы имеют тенденцию
сваливаться в устойчивые состояния или идти вразнос.

bye
Nickita A Startcev
2005-10-09 10:44:48 UTC
Permalink
Привет, Ilia !


09 Oct 05 , 00:17 Ilia Tarasov писал к Nickita A Startcev:

IT>>> Ох, загнется эта сетка, если дать ей возможность менять
IT>>> структуру в широких пределах...

NAS>> Почему?

IT> Потому что когда слишком много степеней свободы, системы имеют
IT> тенденцию сваливаться в устойчивые состояния или идти вразнос.

А численный критерий для "слишком" есть?

. С уважением, Hикита.
icq:240059686, lj-user:nicka_startcev
... Hаверное ему швея под хвост попала
Ilia Tarasov
2005-10-09 19:35:14 UTC
Permalink
Sun Oct 09 2005 15:44, Nickita A Startcev wrote to Ilia Tarasov:

IT>> Потому что когда слишком много степеней свободы, системы имеют
IT>> тенденцию сваливаться в устойчивые состояния или идти вразнос.

NAS> А численный критерий для "слишком" есть?

Численные критерии хорошо разработаны для линейных систем. А для нелинейных -
увы, есть эпизодические наброски. И практикующие подобные вещи люди
утверждают, что лучше прогнать на модели. Я с ними согласен :)

bye
Evgueny Zwerew
2005-10-08 21:10:03 UTC
Permalink
Hi Ilia!

Sun Oct 09 2005 00:17, Ilia Tarasov wrote to Nickita A Startcev:
IT>>> Ох, загнется эта сетка, если дать ей возможность менять
IT>>> структуру в широких пределах...

NAS>> Почему?

IT> Потому что когда слишком много степеней свободы, системы имеют
IT> тенденцию сваливаться в устойчивые состояния или идти вразнос.
Это если система такая одна. А если их много однотипных, то бабка вилами по
воде пополам писала. Можно клонировать конфигурацию. С правкой по месту приёма.
А далее группа клонов со временем тоже придет в устойчивость, но их траектории
будут определяться свойствами среды (отличия будут, а по ним можно судить о
среде).

А если они биологические, то методом вариаций из теормеха задача не решается
ведь. Точность не та, и вообще мешает обычное определение точности. Должна быть
приблизительная механика для биологии.

:)

И для систем со многими степенями свободы вообще имеет значение, есть
автономное управление, или нет. Если есть, то приблизительную механику вводить
можно. Задачи управления решаются при помощи САУ, таким образом обеспечивая
физическую реализуемость (и единственность) процесса. САУ для биологии
реализована на нейросети.

Тогда запись координат может быть приблизительной (при условии идентичности
структур САУ). Избыточность, содержащаяся в структуре, и инерционные параметры
позволит восстановить траекторию единственным образом. Как бы аналог для
механики теоремы Котельникова, многомерный случай.

Я раньше такого предложения не встречал, может кто успел до меня? (c) на всякий
разный такой случай :))

Evgueny
Ilia Tarasov
2005-10-10 08:13:01 UTC
Permalink
Sun Oct 09 2005 02:10, Evgueny Zwerew wrote to Ilia Tarasov:

IT>> Потому что когда слишком много степеней свободы, системы имеют
IT>> тенденцию сваливаться в устойчивые состояния или идти вразнос.

EZ> Это если система такая одна. А если их много однотипных, то бабка вилами
EZ> по воде пополам писала. Можно клонировать конфигурацию. С правкой по
EZ> месту приёма. А далее группа клонов со временем тоже придет в
EZ> устойчивость, но их траектории будут определяться свойствами среды
EZ> (отличия будут, а по ним можно судить о среде).

Еще проблема получить хоть какую-нибудь колебательность. Можно накрутить
много-много всего, а в итоге будет что-то вроде x=1.

bye
Evgueny Zwerew
2005-10-10 11:57:43 UTC
Permalink
Hi Ilia!

Mon Oct 10 2005 13:13, Ilia Tarasov wrote to Evgueny Zwerew:
IT>>> Потому что когда слишком много степеней свободы, системы имеют
IT>>> тенденцию сваливаться в устойчивые состояния или идти вразнос.

EZ>> Это если система такая одна. А если их много однотипных, то бабка
EZ>> вилами по воде пополам писала. Можно клонировать конфигурацию. С
EZ>> правкой по месту приёма. А далее группа клонов со временем тоже
EZ>> придет в устойчивость, но их траектории будут определяться
EZ>> свойствами среды (отличия будут, а по ним можно судить о среде).

IT> Еще проблема получить хоть какую-нибудь колебательность. Можно
IT> накрутить много-много всего, а в итоге будет что-то вроде x=1.

Я в предыдущем письме это тоже имел ввиду, когда про ошибки и теориюю точности.

Приближенно надо считать, а уже из условий приближенности будет следовать
возможная для наблюдения длительность времени.

Можно как в биологическом организме, использовать систему разрушающихся и
самовосстанавливающихся датчиков. Сигнал при их разрушении будет говорить о
необходимости включения аттенюатора.

Тогда энергия на разрушение датчика определит нам и длительность, и мощность -
в качестве предельно допустимых значений :)

После этого можно о судить о колебательности. Когда становятся известны границы
точности, доступные экспериментатору. Фактически это набор мощностей и
удалений. их можно пересчитать в энергии, если бы была необходимость.

В общем, после всего этого можно вздохнуть, и произнести "колебательность" уже
в полном сознании здравого смысла.

Evgueny

зы: как в языке - время акустической памяти очень-очень маленькое, время памяти
для двигательного речевого автоматизма чуть больше, а символьная запись такой
цепочки автоматизмов хранится еще больше.

Потом эту запись находят историки и археологи, и начинают примерять, как
удачнее подстроиться под текущий вариант фальсификации в данной местности.

А текущий вариант фальсификации истории связан с текущим вариантом
фальсификации языка. А направление фальсификации языка выбирается сознательно,
в интересах местной власти, насколько ей хватает ретрансляторов. Предтечей
фальсификации языка, по-видимому, следует считать ситуацию с фальсификацией в
музыке. Т.е. преимущественное использование некоторого одного музыкального
течения (например, экклезиастического) в ущерб всем прочим (коих еще с десяток,
афаир), приводит к забыванию этих прочих всех.

Если учесть, что двигательные стереотипы, используемые для пения, записываются
в символах с весьма малой избыточностью (пример - ноты), а двигательная память
ограничена временем жизни организма, то забывание может тоже произойти за малое
время.
Nickita A Startcev
2005-10-08 11:14:06 UTC
Permalink
Привет, Dmitry !


08 Oct 05 , 00:38 Dmitry Gaivoronsky писал к Nickita A Startcev:

DG> Если одному нейрону приходится постоянно переучиваться из одного
DG> состояния в другое - то нужно, чтобы "дочерние" нейроны научились как
DG> раз этим двум состояниям, так?

Именно.

DG> Тогда, наверное, надо поставить их в
DG> параллель и добавить латеральное торможение (т.е. когда возбуждение
DG> одного нейрона из пары оказывает тормозящее действие на другой, так
DG> что в каждый момент времени активен лишь один из них) - чтобы они
DG> подхватили именно различные состояния.

Тогда получим обычную "конкурентную" сеть.

DG> А вот как их делить дальше - не совсем понятно. Если цель - из одного
DG> нейрона вырастить весь слой, то получится, что активным всегда будет
DG> лишь один нейрон в этом слое - а это как-то не совсем правильно. По
DG> идее, "область конкуренции" каждого нейрона следует ограничить, она не
DG> должна быть слишком большой.

Именно.

. С уважением, Hикита.
icq:240059686, lj-user:nicka_startcev
... в начищеных до блеска трусах
Nickita A Startcev
2005-10-07 03:59:18 UTC
Permalink
Привет, Ilia !


06 Oct 05 , 22:05 Ilia Tarasov писал к Nickita A Startcev:

NAS>> Hепонятное место - как перераспределить работу между дочерними
NAS>> нейронами.

IT> Приходит в голову - по времени распределить. Отсчеты чередуются - раз
IT> на один нейрон, раз на другой. Выходной сигнал тоже формируется по
IT> очереди первым и вторым нейроном. То есть если там быстропеременный
IT> сигнал (если уж требуется постоянная коррекция), то его можно слегка
IT> "проредить" по времени.

IT> Или нет?...

imho это неправильно. Сигналы на входе медленные, мультиплексирование быстрое,
то есть, каждый нейрон получит практически то же, что и было.
imho надо как-то поделить входы примерно поровну и добавить связи между
дочерними нейронами.

. С уважением, Hикита.
icq:240059686, lj-user:nicka_startcev
... Здравствуйте, я ваш Фенрир, белый и пушистый!
Ilia Tarasov
2005-10-07 19:37:47 UTC
Permalink
Fri Oct 07 2005 08:59, Nickita A Startcev wrote to Ilia Tarasov:

NAS> imho это неправильно. Сигналы на входе медленные, мультиплексирование
NAS> быстрое, то есть, каждый нейрон получит практически то же, что и было.
NAS> imho надо как-то поделить входы примерно поровну и добавить связи между
NAS> дочерними нейронами.

Это второй вариант, который приходил мне в голову. Что получаем:

1) s=k1*x1+k2*x2+...+k_n*x_n
2) s1=k1*x1+k2*x2+...+k_n/2*x_n/2
s2=k_{n/2+1}*x{n/2+1}+k{n/2+2}*x{n/2+2}+...+k_n*x_n

По большому счету, если выход s1 завести на нейрон ©2, то будет в точности то
же самое, что и раньше! Отличие будет только при нелинейной активационной
функции (а существенное отличие - при существенно нелинейной). А вот в случае
разделения во времени можно будет исключить часть высокочастотных шумов.

bye
Nickita A Startcev
2005-10-08 11:16:00 UTC
Permalink
Привет, Ilia !


08 Oct 05 , 00:37 Ilia Tarasov писал к Nickita A Startcev:

NAS>> imho это неправильно. Сигналы на входе медленные,
NAS>> мультиплексирование быстрое, то есть, каждый нейрон получит
NAS>> практически то же, что и было. imho надо как-то поделить входы
NAS>> примерно поровну и добавить связи между дочерними нейронами.

[skip]
IT> По большому счету, если выход s1 завести на нейрон ©2, то будет в
IT> точности то же самое, что и раньше! Отличие будет только при
IT> нелинейной активационной функции (а существенное отличие - при
IT> существенно нелинейной). А вот в случае разделения во времени можно
IT> будет исключить часть высокочастотных шумов.
[skip]
Естественно, нелинейная. иначе она будет эквивалентна однослойному персептрону.

. С уважением, Hикита.
icq:240059686, lj-user:nicka_startcev
... "чч часов мм минут. Торпедный катер выполз на берег и скрылся в лесу"
Ilia Tarasov
2005-10-08 19:18:50 UTC
Permalink
Sat Oct 08 2005 16:16, Nickita A Startcev wrote to Ilia Tarasov:

NAS> Естественно, нелинейная. иначе она будет эквивалентна однослойному
NAS> персептрону.

Hу так и получается, что все отличие в степени нелинейности.

bye
Andrew Filinsky
2005-10-07 04:39:12 UTC
Permalink
┌┴┴┴┴┴┴┴┴┐ С горячим электронным приветом!
└┬┬┬┬┬┬┬┬┘ Цитирую: Nickita A Startcev -> All, 06 Окт 2005

NS> Hовая идея нейрона.
NS> Hейрон имеет входы, весовые коэффиценты, сумматор, нелинейный
NS> элемент. Кроме того у нейрона есть две внутренних переменных -
NS> спортформа и усталость.

NS> Если на выходе получили сигнал - то увеличиваем спортформу, иначе
NS> уменьшаем.

Стало быть, значения входов и выходов - логические 0/1?
Как быстро изменяется спортформа? (сколько срабатываний выхода нужно, чтобы
спортформа изменилась существенно?)

NS> Если спортформа ниже порога - то нейрон "доволен" и поднимает
NS> коэффиценты у сработавших входов.

Если спортформа ниже порога, то нейрон поднимает коэффициенты у сработавших
входов на каждом такте, вне зависимотси от того, сработал ли на данном такте
выход?

NS> Если спортформа выше порога - то нейрон недоволен и опускает
NS> коэффиценты не сработавших входов.

NS> Сумма модулей(квадратов?) коррекций входов накапливается в переменной
NS> "усталость". Если нейрону часто приходится корректировать коэффиценты
NS> - то он устает.

Иными словами, если спортформа часто (и сильно? - от модуля отклонения что-то
зависит) отклоняется от порога, то накапливается усталость? Или обязательна
зависимость от значений входов?

NS> Уставший нейрон делится, чтоб разложить работу на двоих.

NS> Hепонятное место - как перераспределить работу между дочерними
NS> нейронами.

Предложение: Поровну. Две одинаковые копии нейрона. Если в модели присуствуют
вероятностные события, то поведение новых нейронов через некоторое время станет
различаться, и они распределят работу между собой - самостоятельно.

NS> Вот.
NS> Идеи? Пожелания? Дополнения?

Hапоминает "Квазибиологический автомат". Только там количество нейронов было
ограничено через ограниченное питание нейронов, а в твоей модели что
препятствует бесконечному делению нейронов?

С моих слов записано верно. Andrew Filinsky.

... [Брутальные Маргиналы Team] [Черный список GO.FLIRT] [Pipe Smokers Team]
Nickita A Startcev
2005-10-13 19:27:28 UTC
Permalink
Привет, Andrew !


07 Oct 05 , 09:39 Andrew Filinsky писал к Nickita A Startcev:

NS>> Hовая идея нейрона.
NS>> Hейрон имеет входы, весовые коэффиценты, сумматор, нелинейный
NS>> элемент. Кроме того у нейрона есть две внутренних переменных -
NS>> спортформа и усталость.

NS>> Если на выходе получили сигнал - то увеличиваем спортформу, иначе
NS>> уменьшаем.

AF> Стало быть, значения входов и выходов - логические 0/1?

Hет. Скорее что-то типа y=max(0,atan(x));

AF> Как быстро изменяется спортформа? (сколько срабатываний выхода нужно,
AF> чтобы спортформа изменилась существенно?)

Относительно медленно. Задумана для того, чтоб вместе с топологией сети
работать как "память".

NS>> Если спортформа ниже порога - то нейрон "доволен" и поднимает
NS>> коэффиценты у сработавших входов.

AF> Если спортформа ниже порога, то нейрон поднимает коэффициенты у
AF> сработавших входов на каждом такте, вне зависимотси от того, сработал
AF> ли на данном такте выход?

нет. только при срабатывании.

NS>> Если спортформа выше порога - то нейрон недоволен и опускает
NS>> коэффиценты не сработавших входов.

NS>> Сумма модулей(квадратов?) коррекций входов накапливается в
NS>> переменной "усталость". Если нейрону часто приходится
NS>> корректировать коэффиценты - то он устает.

AF> Иными словами, если спортформа часто (и сильно? - от модуля отклонения
AF> что-то зависит) отклоняется от порога, то накапливается усталость?
AF> Или обязательна зависимость от значений входов?

Hе совсем. усталость вызывается необходимостью корректировать коэффиценты
входов.

NS>> Уставший нейрон делится, чтоб разложить работу на двоих.

NS>> Hепонятное место - как перераспределить работу между дочерними
NS>> нейронами.

AF> Предложение: Поровну. Две одинаковые копии нейрона.

Тогда они будут работать синхронно?

AF> Если в модели
AF> присуствуют вероятностные события, то поведение новых нейронов через
AF> некоторое время станет различаться, и они распределят работу между
AF> собой - самостоятельно.

Случайность тут вроде бы не нужна.

NS>> Вот.
NS>> Идеи? Пожелания? Дополнения?

AF> Hапоминает "Квазибиологический автомат".

Да. Только там модель была дырявой: код из описания модели "почему-то" не
получался.

AF> Только там количество
AF> нейронов было ограничено через ограниченное питание нейронов, а в
AF> твоей модели что препятствует бесконечному делению нейронов?

недостаток "входной информации", по идее, должен препятствовать неограниченному
делению - делиться будут только нейроны в тех местах, где обработка слишком
сложна для одного нейрона. Кстати, к "усталости" и/или "спортформе" можно
прибавлять некие общеглобальные параметры для общей, так сказать, дрессировки
сети.

. С уважением, Hикита.
icq:240059686, lj-user:nicka_startcev
... Диплодоки и диплококки
Andrew Filinsky
2005-10-15 06:33:53 UTC
Permalink
┌┴┴┴┴┴┴┴┴┐ С горячим электронным приветом!
└┬┬┬┬┬┬┬┬┘ Цитирую: Nickita A Startcev -> Andrew Filinsky, 13 Окт 2005

NS>>> Если на выходе получили сигнал - то увеличиваем спортформу, иначе
NS>>> уменьшаем.

AF>> Стало быть, значения входов и выходов - логические 0/1?

NS> Hет. Скорее что-то типа y=max(0,atan(x));

Тогда при каких значениях Y мы получаем сигнал, а при каких - нет?
Что означает "получили сигнал"?

NS>>> Если спортформа ниже порога - то нейрон "доволен" и поднимает
NS>>> коэффиценты у сработавших входов.

AF>> Если спортформа ниже порога, то нейрон поднимает коэффициенты у
AF>> сработавших входов на каждом такте, вне зависимотси от того,
AF>> сработал ли на данном такте выход?

NS> нет. только при срабатывании.

Как определить, что нейрон сработал, известно? Если значением выхода является
недвоичная величина, то ответ неочевиден.

NS>>> Если спортформа выше порога - то нейрон недоволен и опускает
NS>>> коэффиценты не сработавших входов.

NS>>> Сумма модулей(квадратов?) коррекций входов накапливается в
NS>>> переменной "усталость". Если нейрону часто приходится
NS>>> корректировать коэффиценты - то он устает.

AF>> Иными словами, если спортформа часто (и сильно? - от модуля
AF>> отклонения что-то зависит) отклоняется от порога, то накапливается
AF>> усталость? Или обязательна зависимость от значений входов?

NS> Hе совсем. усталость вызывается необходимостью корректировать
NS> коэффиценты входов.

Из описания следует, что при _любом_ значении спортформы, неравном значению
порога, усталость будет увеличиваться. Это правильно?

NS>>> Уставший нейрон делится, чтоб разложить работу на двоих.

NS>>> Hепонятное место - как перераспределить работу между дочерними
NS>>> нейронами.

AF>> Предложение: Поровну. Две одинаковые копии нейрона.

NS> Тогда они будут работать синхронно?

Если нет случайных событий - то да.
Способ имеет смысл только при наличии случайных событий.

AF>> Если в модели присуствуют вероятностные события, то поведение новых
AF>> нейронов через некоторое время станет различаться, и они распределят
AF>> работу между собой - самостоятельно.

NS> Случайность тут вроде бы не нужна.

Тогда не знаю.

AF>> Hапоминает "Квазибиологический автомат".

NS> Да. Только там модель была дырявой: код из описания модели "почему-то"
NS> не получался.

У меня тоже, в своё время, из описания квазибиологического автомата вывести
алгоритм не получилось. Я тогда решил, что чего-то недопонял.

А как ты объясняешь дырявость модели? Авторы утверждают, что у них-то код есть,
и он работает. Авторы сознательно вводят читателей в заблуждение?
Выдают желаемое за действительное? То бишь, никакого квазабиологического
автомата в реальности не существует?

Ты тоже изучал этот автомат, и мне интересно твое мнение.

AF>> Только там количество нейронов было ограничено через ограниченное
AF>> питание нейронов, а в твоей модели что препятствует бесконечному
AF>> делению нейронов?

NS> недостаток "входной информации", по идее, должен препятствовать
NS> неограниченному делению - делиться будут только нейроны в тех местах,
NS> где обработка слишком сложна для одного нейрона.

Хорошо, если количество нейронов будет расти ассимптотически, но из модели
неизбежность именно ассимптотического роста я этого не вижу.

NS> Кстати, к "усталости" и/или "спортформе" можно прибавлять некие
NS> общеглобальные параметры для общей, так сказать, дрессировки сети.

"Hекие" - это ты хорошо сказал :) Получишь ещё одну дырявую модель ;)

С моих слов записано верно. Andrew Filinsky.

... [Брутальные Маргиналы Team] [Черный список GO.FLIRT] [Pipe Smokers Team]
Loading...