Эпизоотологическое прогнозирование 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Эпизоотологическое прогнозирование



 

Исследования в области эпизоотологического прогнозирования начали проводиться во второй половине XX столетия. Это стало возможным благодаря двум важнейшим обстоятельствам; успехам эпизоотологии, иммунологии, инфекционной патологии и привлечению математических методов ЭВМ к решению эпизоотических задач. М.Г. Таршис, В.М. Константинов (1975) сообщали о разработке экстраполяционных моделей прогноза масштабов иммунизации против сибирской язвы и эмфизематозного карбункула и потребности в биопрепаратах против этих болезней. Используя факторные модели, авторы разработали вариант потенциального ареала болезни Ньюкасла для большой территории. М.Г. Таршис и В.Е. Гудим (1973) исследовали структуру ареала эмфизематозного карбункула методом информационного анализа. Применение этого метода позволило выявить ведущие факторы, а также их сочетания, определяющие интенсивность проявления болезни. По мнению авторов, это позволило оптимизировать планирование мероприятий, в том числе иммунизацию.

В работе С. Stellman, G. Beranger (1974) анализируется бешенство диких животных во Франции в период 1968 - 1972 гг., с использованием для этих целей биоматематической модели, позволяющей исследовать гетерогенные популяции (с участием различных зоологических видов) и эпизоотии на открытых пространствах, т.е, распространяющиеся, невзирая на географические границы. Авторам удалось установить годовой ритм бешенства и периодичность - увеличение числа случаев бешенства один раз в три года, связав это с развитием популяции лисиц и ее восстановлением. В.Ф. Бордюг (2003) предложена компьютерная программа, способная просчитывать основные показатели напряженности эпизоотического процесса туберкулеза по 60 показателям. В.В. Жеглов и Ю.А. Шумилин (2005) на основе дифференциальных уравнений предложили прогнозировать развитие эпизоотического процесса сальмонеллеза при клеточном содержании бобров.

 

 
2.4.2. Нейросетевые методы прогнозирования

Многолетние исследования, проводимые на основе математических алгоритмов показали, что биологические задачи, имеющие не явный характер, решаются явными методами с точностью и удобством, совершенно не достаточным для широкого практического пользования. В настоящее время существуют экспертные компьютерные программы, с принципиально иными подходами к обработке и интерпретации данных, способные решать задачи, в условия которых входит большое число сложно комбинируемых факторов и не имеющие четких алгоритмов решения. Речь идет о нейроинформационных технологиях, базирующихся на искусственных нейронных сетях.

Искусственные нейронные сети (ИНС) — математические модели, а также их программные или аппаратные реализации, построенные по принципу организации и функционирования биологических нейронных сетей — сетей нервных клеток живого организма. Это понятие возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы. Первой такой попыткой были нейронные сети Маккалока и Питтса. Впоследствии, после разработки алгоритмов обучения, получаемые модели стали использовать в практических целях: в задачах прогнозирования, для распознавания образов, в задачах управления и др.

ИНС представляют собой систему соединённых и взаимодействующих между собой простых процессоров (искусственных нейронов). Такие процессоры обычно довольно просты, особенно в сравнении с процессорами, используемыми в персональных компьютерах. Каждый процессор подобной сети имеет дело только с сигналами, которые он периодически получает, и сигналами, которые он периодически посылает другим процессорам (рис. 17). И тем не менее, будучи соединёнными в достаточно большую сеть с управляемым взаимодействием, такие локально простые процессоры вместе способны выполнять довольно сложные задачи.

Рис.17. Схема простой нейросети. Зелёным цветом обозначены входные нейроны, голубым скрытые нейроны, жёлтым — выходной нейрон

 

С точки зрения машинного обучения, нейронная сеть представляет собой частный случай методов распознавания образов, дискриминантного анализа, методов кластеризации и т. п. С математической точки зрения, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации. С точки зрения кибернетики, нейронная сеть используется в задачах адаптивного управления и как алгоритмы для робототехники. С точки зрения развития вычислительной техники и программирования, нейронная сеть — способ решения проблемы эффективного параллелизма. А с точки зрения искусственного интеллекта ИНС является основой философского течения коннективизма и основным направлением в структурном подходе по изучению возможности построения (моделирования) естественного интеллекта с помощью компьютерных алгоритмов.

Нейронные сети не программируются в привычном смысле этого слова, они обучаются. Возможность обучения — одно из главных преимуществ нейронных сетей перед традиционными алгоритмами. Технически обучение заключается в нахождении коэффициентов связей между нейронами. В процессе обучения нейронная сеть способна выявлять сложные зависимости между входными данными и выходными, а также выполнять обобщение. Это значит, что в случае успешного обучения сеть сможет вернуть верный результат на основании данных, которые отсутствовали в обучающей выборке, а также неполных и/или «зашумленных», частично искаженных данных.

Кластеризация (кластерный анализ)

Под кластеризацией понимается разбиение множества входных сигналов на классы, притом, что ни количество, ни признаки классов заранее не известны. После обучения такая сеть способна определять, к какому классу относится входной сигнал. Сеть также может сигнализировать о том, что входной сигнал не относится ни к одному из выделенных классов — это является признаком новых, отсутствующих в обучающей выборке, данных. Таким образом, подобная сеть может выявлять новые, неизвестные ранее классы сигналов. Соответствие между классами, выделенными сетью, и классами, существующими в предметной области, устанавливается человеком. Кластеризацию осуществляют, например, нейронные сети Кохонена.

Нейронные сети в простом варианте Кохонена не могут быть огромными, поэтому их делят на гиперслои (гиперколонки) и ядра (микроколонки). Если сравнивать с мозгом человека, то идеальное количество параллельных слоёв не должно быть более 112. Эти слои в свою очередь составляют гиперслои (гиперколонку), в которой от 500 до 2000 микроколонок (ядер). При этом каждый слой делится на множество гиперколонок пронизывающих насквозь эти слои. Микроколонки кодируются цифрами и единицами с получением результата на выходе. Если требуется, то лишние слои и нейроны удаляются или добавляются. Идеально для подбора числа нейронов и слоёв использовать суперкомпьютер. Такая система позволяет нейронным сетям быть пластичной.

Прогнозирование

Способности нейронной сети к прогнозированию напрямую следуют из ее способности к обобщению и выделению скрытых зависимостей между входными и выходными данными. После обучения сеть способна предсказать будущее значение некой последовательности на основе нескольких предыдущих значений и/или каких-то существующих в настоящий момент факторов. Следует отметить, что прогнозирование возможно только тогда, когда предыдущие изменения действительно в какой-то степени предопределяют будущие. Например, прогнозирование котировок акций на основе котировок за прошлую неделю может оказаться успешным (а может и не оказаться), тогда как прогнозирование результатов завтрашней лотереи на основе данных за последние 50 лет почти наверняка не даст никаких результатов.

Собственно обучение сети

В процессе обучения сеть в определенном порядке просматривает обучающую выборку. Порядок просмотра может быть последовательным, случайным и т. д. Некоторые сети, обучающиеся без учителя, например, сети Хопфилда просматривают выборку только один раз. Другие, например, сети Кохонена, а также сети, обучающиеся с учителем, просматривают выборку множество раз, при этом один полный проход по выборке называется эпохой обучения. При обучении с учителем набор исходных данных делят на две части — собственно обучающую выборку и тестовые данные; принцип разделения может быть произвольным. Обучающие данные подаются сети для обучения, а проверочные используются для расчета ошибки сети (проверочные данные никогда для обучения сети не применяются). Таким образом, если на проверочных данных ошибка уменьшается, то сеть действительно выполняет обобщение. Если ошибка на обучающих данных продолжает уменьшаться, а ошибка на тестовых данных увеличивается, значит, сеть перестала выполнять обобщение и просто «запоминает» обучающие данные. Это явление называется переобучением сети или оверфиттингом. В таких случаях обучение обычно прекращают. В процессе обучения могут проявиться другие проблемы, такие как паралич или попадание сети в локальный минимум поверхности ошибок. Невозможно заранее предсказать проявление той или иной проблемы, равно как и дать однозначные рекомендации к их разрешению.

Все выше сказанное относится только к итерационным алгоритмам поиска нейросетевых решений. Для них действительно нельзя ничего гарантировать и нельзя полностью автоматизировать обучение нейронных сетей. Однако, наряду с итерационными алгоритмами обучения, существуют не итерационные алгоритмы, обладающие очень высокой устойчивостью и позволяющие полностью автоматизировать процесс обучения. На сегодняшний день один из не итерационных алгоритмов стандартизован (ГОСТ Р 52633.5-2011 «Защита информации. Техника защиты информации. Автоматическое обучение нейросетевых преобразователей биометрия-код доступа»). Этот стандарт распространяется только на однослойные и двухслойные сети персептронов с большим числом входов и выходов. При необходимости гостовский алгоритм не итерационного обучения может быть обобщен на любое число слоев нейронов в сети.



Поделиться:


Последнее изменение этой страницы: 2016-08-10; просмотров: 886; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.191.234.62 (0.005 с.)