Нормальный закон распределения. 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Нормальный закон распределения.



Очень часто закон распределения непрерывной случайной величины при неограниченном возрастании числа испытаний описывается выражением:

j(C) = (1/(2ps))·e^(-(x-a)2/(2s2)) (2p под знаком корня)

Это распределение называется - нормальный закон распределения. Здесь а - математическое ожидание, s - среднее квадратичное отклонение, е - неперово число или основание натурального логарифма. Графически нормальное распределение имеет следующий вид (рис 3.2.4).

Кривая симметрична относительно точки x=a. Величина j(X) в этой точке определяется формулой:

j(C) = 1/(2ps) (2p под знаком корня)

т.е. максимальное значение функции j(C) зависит от величины среднего квадратичного отклонения. Поэтому в экспериментальных распределениях форма кривой может отличаться от теоретического нормального распределения в зависимости от числа измерений или от величины s.

Одним из основных положений математической статистики является гипотеза о том, что абсолютное большинство генеральных распределений совпадает с каким-то теоретическим распределением, чаще всего с нормальным законом распределения. Однако выборочные экспериментальные распределения могут отличаться и значительно от теоретических распределений. В качестве параметров, определяющих эти отличия, вводят специальные характеристики положения и рассеяния, такие как медиана, мода, выборочное среднее, выборочная дисперсия, выборочное среднее квадратичное отклонение.

Медиана (Ме) - средняя, относительно которой ряд распределения делится на две части; в обе стороны от медианы располагается одинаковое число ранжированных значений измеренной величины.

Например, для ряда 12, 14, 16, 18, 20, 22, 24, 26, 28 медианой будет число 20: по обе стороны располагаются по 4 значения.

Для ряда с четным числом значений (6, 8, 10, 12, 14, 16, 18, 20, 22, 24) медиана определяется как полусумма центральных членов Ме=(14+16)/2=15

Мода (Мо) - это величина или качественный признак, который включает наибольшее число вариант.

Интервал (класс), в котором наибольшее число вариант, называется модальным классом.

Медиана определяется по формуле: Me=Xn+l·((m1 - m2)/(2m2-m1-m3)), где хn- нижняя граница модального класса, l - ширина модального класса, m1, m2, m3 - соответственно: частота класса, предшествующего модальному; частота самого модального класса; частота последующего за модальным классом. В приведенном примере Me=11.8+0.7·((25-23)/(2·25-23-17))=12.9

На представленном графике 3.2.5 дано распределение по возрасту заболевших дифтерией (по вертикальной оси - количество заболевших на 10 тыс. человек, по горизонтальной - возраст.)

Величина математического ожидания М(Х)=7,75 практически не несет информацию о данном заболевании, а величина моды Мо=3 определяет в каком возрасте наиболее часто происходят заболевания и необходимо осуществлять профилактические мероприятия.

Кроме медианы и моды для характеристики выборочных распределений используются также рассмотренные выше параметры: математическое ожидание, дисперсия и среднее квадратичное отклонение.

Нормальное теоретическое распределение графически представлено четко выраженной симметричной линией (1) на рис 3.2.6. Однако выборочные распределения могут отличаться от нормального высотой максимального значения распределения - кривая (2). Это отличие характеризуется специальным параметром - эксцессом распределения. Экспериментальное распределение может быть несимметричной кривой (3). Такие отклонения также характеризуются специальным параметром - асимметрией распределения.

Для биологических объектов характерно то, что они в большинстве представляют однородные популяции (виды, породы, сорта и др.). Изучение какого-либо признака у всех особей популяций дало бы множество несколько отличающихся друг от друга значений случайной величины, характеризующей данный признак.

Все множество возможных значений случайной величины у всех особей данной популяции называется генеральной совокупностью.

Однако в эксперименте, в связи с чрезвычайной многочисленностью популяций, изучается часть особей.

Множество значений случайной величины, измеренных у отдельных особей, называется выборкой из генеральной совокупности.

Обозначим: а - математическое ожидание генеральной совокупности случайной величины Х; оно называется истинным значением величины Х, ā и σ - соответственно математическое ожидание и среднее квадратичное отклонение выборки, т.е. серии выборочных измерений этой величины. Величины а и ā, как правило, не совпадают друг с другом и могут отличатся значительно.

Задача состоит в том, чтобы правильно выбрать интервал вокруг ā-(ā±Δā), который бы с достаточной степенью надежности заключал истинное значение - а. Этот интервал называют доверительным интервалом.

Надежностью результата серии измерений называется вероятность того, что истинное значение измеряемой величины (а) попадает в выбранный доверительный интервал выборки (ā±Δā).

Чем больше величина доверительного интервала, т.е. чем больше (Δā), тем с большей надежностью величина (а) попадает в этот интервал.

Доверительный интервал зависит в первую очередь от величин ā и Δā, а также от числа измерений в выборке. При малой выборке значительное отклонение одного из измерений значительно изменяет величину ā, при большом количестве измерений (n>30) значительное отличие одного из измерений практически не меняет ā.

Теория показывает, если n>30, то доверительный интервал определяется следующими правилами:

Δā=σ при надежности 0.68

Δā=2σ при надежности 0.95

Δā=3σ при надежности 0.997

В медицинских и биологических исследованиях, как правило, считается достаточной надежностью - 0.95.

Т.е., чтобы найти величину доверительного интервала (при n >30) нужно определить математическое ожидание ā и величину среднеквадратичного отклонения σ для данной выборки. Доверительный интервал равен [ā-2σ, ā+2σ].

При малых выборках доверительный интервал находят с помощью t - критерия Стьюдента (англ. Госсет). Госсетом составлены специальные таблицы для t - критерия в зависимости от числа измерений: t=Δā/σ; отсюда Δā=t·σ

Пример: проводя пять измерений толщины пластины микрометром, нашли, что ā=2,16мм, σ=0,022мм. Определить доверительный интервал. По таблице Стьюдента определяем для P=0,95, n=5, t=2,78, Dā=2.78·0.022=0.06.

Доверительный интервал [2,16 - 0,06, 2,16+0,06], т.е. 2,10< X < 2,22

С помощью t=критерия Стьюдента решается и обратная задача: задав определённый интервал (ā±Δā) вокруг выборочного математического ожидания определяют надежность того, что математическое ожидание генеральной совокупности входит в этот интервал.

При анализе экспериментальных распределений часто приходится решать три основные задачи:

- относится ли то или иное значение измеренной величины к данной выборке,

- соответствует ли данное выборочное распределение какому - либо теоретическому распределению,

- являются ли два экспериментальных распределения выборками из одной и той же генеральной совокупности.

Все три задачи сводятся к одной - определить существует ли различие между объектами, указанными в каждой из задач. Это позволяет сформулировать общий подход к решению задач.

Предположение, что различия между объектами нет, называют нулевой гипотезой. Существование различия между объектами называют альтернативной гипотезой.

Признание одной из гипотез осуществляется с помощью так называемых критериев различия. Различают два вида критериев различия: параметрические и непараметрические. Параметрические критерии определяются через параметры распределения: математическое ожидание, дисперсию, среднее квадратичное отклонение и др. Наиболее часто употребляемые в статистике параметрические критерии: критерий Пирсона, критерий Стьюдента, F-критерий Фишера, критерий c2 (хи-квадрат). Однако параметрические критерии имеют определенные условия, которые ограничивают их применимость для решения указанных задач. К непараметрическим критериям относятся: критерий Вилкоксона, критерий ван-дер-Вандера, серийный критерий, критерий знаков и др. Сущность и использование всех перечисленных критериев можно найти в любом учебнике по статистике.

В качестве примера рассмотрим задачу определения различия между двумя выборками по критерию Стьюдента.

Необходимо выяснить эффективность применения некоторого препарата, имеющего целью повысить сопротивляемость организма по отношению к определенной инфекции.

Для этого берут две группы животных. В одной из них (контрольной) не вводят препарат, другой (опытной) вводят. Затем обе группы заражают и наблюдают сколько дней переживают животные опытной и контрольной группы. В одной из серий были получены следующие результаты (таблица 3.2.3).

Как видно, среднее значение опытной и контрольной группы различаются. Но эти различия могут быть обусловлены случайностью выборки. Для определения достоверности различия пользуются критерием Стьюдента:

1) t=½ā12½/(s12+s22) (все под дпробью под знаком корня) t=½6.25 - 5.22½/(0.222-0.22)=3.4

2) n=n1+n2 - 2=32+23 - 2=53,

3) определяют по n и выбранной надежности по таблице t 0.95=2.01, t 0.99=2.68,

4) если t > t0,99, то различие считается достоверным,

если t0.95< t <t0.99 - то различие сомнительно,

если t < t 0.95 - различия нет.

В нашем примере 3.4 > 2.68. Следовательно данный препарат обладает защитными свойствами.

Переменные величины Y и X находятся в функциональной зависимости одна от другой, если всякому определенному значению одной из них соответствует одно или несколько вполне определенных значений другой. Такие связи представляют все точные законы астрономии, физики, химии.

Например: в законе Бойля - Мариотта давление и объем связаны функциональной зависимостью. P=C/V, где C=const.

Такие зависимости легко можно выразить графически.

На практике, особенно в биологии и медицине, изучаются такие зависимости, в которых каждому значению одной величины, хотя и соответствуют несколько значений другой, но число этих значений и сами значения остаются не вполне определенными. Т.е. каждому значению Х соответствует не определенное значение, а распределение случайной величины Y и наоборот.

Зависимость между X и Y, если она существует, называют корреляционной или просто корреляцией.

Пример: в таблице 3.2.4 представлены данные измерения массы и роста мужчин 20-25 лет (xi и yi - среднее значение интервалов).

Корреляционная зависимость между ростом и весом в данном примере, если она существует, может быть выражена графически. Для этого определяют среднее значение Х для каждого Y и среднее значение Y для каждого Х по формулам:

X=å(над – n, под i=1) (xi·ni)/n` Y=å(над – n, под i=1) (yi·ni)/n’’

По данным расчета на графике наносят точки и проводят линии, наиболее близко прилежащие к этим точкам (рис. 3.2.7).Такие линии называются линиями регрессии. По этим линиям можно качественно оценить зависимость между изучаемыми величинами.

По их форме можно судить о виде корреляции. В нашем примере графиком являются прямые линии. В этом случае говорят о линейной корреляционной зависимости. Линейная корреляция является самым простым видом зависимости между случайными величинами. Пользуясь специальным математическим аппаратом, можно найти уравнение линий регрессии. В нашем примере: y=b0+b1 x, где b0 и b1 определяются по экспериментальным данным.

По расположению этих линий можно судить об отсутствии или наличии связи между изучаемыми признаками. Если линии регрессии перпендикулярны, то связь между величинами полностью исключается. Чем меньше угол между линиями регрессии, тем с большим основанием можно говорить о наличии такой связи. Если линии регрессии совпадают или параллельны, то связь является функциональной.

Количественная оценка корреляции между признаками требует довольно сложных и громоздких математических вычислений и не входит в нашу программу. Используется, так называемый коэффициент корреляции, который количественно определяет зависимость между величинами.

Среди методов статистической обработки экспериментальных данных особо следует выделить дисперсионный анализ. Эта особенность заключается в том, что любая биологическая система представляет собой сложнейший материальный объект, на каждый элемент которого действует много факторов внешнего и внутреннего порядка. Характеристики распределения случайной величины, такие как математическое ожидание и дисперсия не отражают влияние отдельных факторов. Основной задачей дисперсионного анализа и является определение достоверности влияния какого-либо фактора на процессы, происходящие в системе. Не вдаваясь в математические подробности, рассмотрим сущность дисперсионного анализа на конкретном примере. В таблице 3.2.5 приведены экспериментальные данные серии опытов по изучению условного рефлекса у 5 собак.

Определялось время (в секундах) с момента действия раздражителя до начала выделения слюны. Требуется определить: влияют ли индивидуальные особенности животных на условный рефлекс.

Из таблицы видно, что вариабельность среднего значения параметра времени у каждой собаки довольно большая.

В таблице 3.2.6 определена дисперсия математического ожидания параметра времени по индивидуальным особенностям животных.

Теперь осталось сравнить дисперсию математического ожидания по каждой собаке с общей дисперсией всех опытов по одному из критериев различия.

В приведенном примере с помощью критерия Фишера было выявлено, что индивидуальные особенности не влияют на значение вариации времени выработки условного рефлекса. Указанная схема расчета носит название - однофакторный дисперсионный анализ. Дисперсионный анализ позволяет также подтвердить (или опровергнуть) гипотезу об одновременном влиянии двух, трех и более факторов на вариабельность изучаемого признака - это многофакторный дисперсионный анализ. Ситуация использования дисперсионного анализа постоянно возникает в медицине в диагностическом и лечебном процессе при выявлении наиболее эффективных причин заболеваний и методов их лечения.

При построении экспериментальных графиков точки, ввиду случайности выборки, как правило, не лежат на одной линии. Существуют определенные правила, которые позволяют провести экспериментальную линию, наиболее близко к построенным точкам.

Сумма квадратов отклонений функции от ординаты экспериментальной линии должна быть наименьшей.

å(над – n, под i=1) Δyi=> min

Это правило построения экспериментальных линий получило название метода наименьших квадратов (рис.3.2.8). Пользуясь правилом наименьших квадратов, можно определить уравнение, выражающее зависимость между изучаемыми величинами Y и X.

1. y=a x+b: определяют а и b

2. y=a x+b x+c: определяют a,b, c.

В заключение следует указать, что методы статистической обработки экспериментальных результатов даны в лекции схематично, даны только общие подходы. Более детально с ними можно познакомиться в специальных руководствах.

КИБЕРНЕТИКА И ИНФОРМАТИКА

В настоящее время медицина поставлена перед необходимостью поисков новых теоретических основ терапевтических вмешательств на базе современных достижений физиологии, математики, медицинской кибернетики.

Термин "кибернетика" происходит от корня греческого слова "кормчий", обозначающего управление кораблем, искусство кормчего. В 1834 году французский физик Ампер, предлагая единую систему классификаций знаний, назвал кибернетикой науку об управлении государством.

В 1948 году кибернетика определяется как наука с выходом книги американского математика Норберта Винера "Кибернетика или управление и связь в животном и машине ", в которой он сформулировал ее основные положения.

Кибернетика - наука о законах управления и оптимальном использовании информации в сложных динамических системах управления.

Она создавалась и разрабатывалась на базе синтеза различных наук: математики, физики, биологии, теории управления, медицины, социологии и др.

Предметом исследования кибернетики является обмен информацией, оценка функционирования систем управления и их взаимосвязь.

Основным методом кибернетики является метод математического моделирования систем управления.

Основным принципом кибернетики является применение системного подхода при описании и исследовании сложных систем.

Системный подход рассматривает при изучении систему, как совокупность взаимосвязанных элементов, находящихся в определенной функциональной зависимости между собой.

Системой управления называют такую совокупность элементов (частей), в результате деятельности которых, обнаруживаются интегративные свойства, т.е. присущие системе в целом и не свойственные ее элементам (частям) в отдельности.

Пример: " Врач - больной " - система управления.

Схема функционирования произвольной системы управления представлена на рисунке 3.4.1.

Обратная связь может быть двух видов: отрицательной и положительной.

Отрицательная обратная связь обеспечивает выдачу объекту управления, со стороны устройства управления управляющего воздействия, направленного на ликвидацию рассогласования. Пример: холодильник

Положительная обратная связь ведет не к устранению, а к усилению рассогласования. Пример: больной эпилепсией

Основные направления медицинской кибернетики:

1. Автоматизация диагностики заболеваний.

2. Автоматизация диагностики состояния больного.

3. Моделирование физиологических процессов в норме и патологии.

4. Автоматизация труда медицинских работников.

5. Разработка плана лечения и прогнозирование хода болезни.

6. Применение диагностики в здравоохранении.

Информатика является основой кибернетики, но и представляет собой самостоятельное научное направление, самостоятельную науку.

Информатика - научная дисциплина, изучающая структуру и общие свойства научной информации, а также закономерности всех процессов научной коммуникации.

Значительную часть этих процессов составляет научно-информационная деятельность по сбору, переработке, хранению, поиску и распространению научной информации.

Основная теоретическая задача информатики заключается в определении общих закономерностей, в соответствии с которыми происходит создание научной информации, ее преобразование, передача и использование в различных сферах деятельности человека.

Математическая теория информации используется в информатике для обеспечения оптимального кодирования информации, ее долговременного хранения, поиска и передачи на расстояние.

Математическая теория информации - раздел кибернетики, занимающийся математическим описанием и оценкой методов передачи, хранения, извлечения и классификации информации.

Она в основном математическая дисциплина, использующая методы теории вероятности, математической статистики, линейной алгебры и др.

Первоначально теория информации возникла как теория связи, обеспечивающая надежность и экономичность передачи сообщений по техническим каналам связи. Сейчас она является универсальной теорией связи для систем любого происхождения, в том числе и биологических. Недостаточное к ней внимание биологов и медиков обусловлено, вероятно, их слабой осведомленностью в этой области. Хотя, даже на первый взгляд ясно, что теория располагает неограниченными возможностями описать, дать количественную характеристику сложных биологических объектов. И не случайно поэтому, в начале медицинская кибернетика (1975 г.), а затем информатика введена в программу медицинских вузов.

Информация так же как масса и энергия является характеристикой окружающего нас мира, это философская категория, материальная субстанция, характеризующая пространственную ориентацию материи.

Информация - это совокупность каких-либо сведений, данных, знаний об изучаемом объекте, явлении, процессе.

Информация предполагает передачу этих сведений другому (воспринимающему) объекту. Сведения, передаваемые с одного объекта к другому, называются сообщениями.

Сообщения информативны только в том случае, если они несут новые сведения об объекте.

Предназначенные для передачи на расстояние сообщения преобразуются в сигналы. Они по своей природе могут быть дискретными (азбука Морзе, цифры, буквы, молекулы, клетки, особи...) и непрерывными (высота тона звука, изменение давления крови, изменение концентрации веществ в биологических тканях, температура тела и т.д.).

Сообщение, подлежащее передаче, в информатике называется словом. Это может быть буква, слово, фраза, сочетание слов и цифр и т.д. Составляющие сообщение элементы, называются буквами или символами.

Количество информации зависит от числа сообщений (N), точнее прямо пропорционально логарифму от N:

J=logaN

Основанием логарифма берется, как правило, число 2, т.к. в принципе, любую информацию можно представить в виде совокупности двух цифр - "0" и "1" ("0"- нет, "1"- да), тогда J=log2N.

Если в этом определении N=2, то J=log22=1.

Количество информации равно единице, когда число сообщений равно двум. Такая единица информации получила название БИТ.

Чаще используется единица 1 байт=8 бит

Пример: Подсчитать количество информации, которую несет одна буква русского алфавита. Приближенно будем считать N=32 и использование каждой буквы равновероятно.

J=log232=5 бит

Следовательно, каждая буква русского алфавита несет информацию в 5 бит, если считать использование всех букв равновероятным.

Но сообщение, полученное от какого-либо объекта, является случайным явлением. Так, например, буква А в любом тексте встречается чаще, чем буква Ы.

В медицине сообщение зависит от многих явлений и процессов, протекающих в организме человека и в окружающей среде. Поэтому для количественной оценки информации используется теория информации.

Преобразуем: J=logN=-log(1/N)

1/N - это вероятность появления одного сообщения Ai, поэтому, J=-logP(Ai) - информация любого сообщения (основание логарифма не ставим, всегда считая его равным двум).

Если в некотором опыте возможно появление нескольких сообщений А1, А2, А3,... Аi (симптомы, анализы) и мы проводим опыты n раз (n больных с одним диагнозом). Причем, А1 появляется m1 раз, А2 - m2 раз, А3 - m3 раз и т.д., то общая информация подсчитывается по формуле:

J=-m1logP(A1)-m2logP(A2)-m3logP(A3)-…=-∑(над – n, под i=1)milogP(Ai), а среднее значение информации на одно сообщение:

J=-∑(над – n, под i=1)P(Ai)logP(Ai), т.к. m1/n=P(A1), m2/n=P(A2),…,mi/n=P(Ai).

Эту же формулу можно получить, проделав ряд преобразований:

J=-log(1/N), J=-N(1/N)·log(1/N), J=-∑(над – n, под i=1)P(Ai)logP(Ai)

Пример: Т.к. использование букв русского алфавита события не равновероятные и зависимые, то реальное количество информации, приходящееся на одну букву, составляет около 4 бит.

Величину H=-∑(над – n, под i=1)P(Ai)logP(Ai) называют информационной энтропией.

Энтропия характеризует степень неопределенности системы. Т.к. J и H имеют различные знаки (J=-H), то получение информации от системы уменьшает ее степень неопределенности.

Кроме величины информации и энтропии, в информатике введено понятие - ценность информации.

Ценность информации - это изменение вероятности достижения цели, в результате получения информации.

ΔJ=logP1-logP2

где Р1 - вероятность достижения цели до получения информации, Р2 - после. Ценность информации бывает как положительной, так и отрицательной. Это зависит от того, повысило или понизило получение новой информации вероятность достижения цели. Отрицательная информация называется дезинформацией. Ценность информации измеряется так же в битах.

Любое сообщение от отдельных частей системы или от системы к системе передается по специальным путям, получивших название каналов связи. Для того чтобы сообщение можно было передать по каналу связи, его необходимо преобразовать в форму, удобную для передачи по нему, т.е. представить в виде совокупности символов или сигналов. Материальное воплощение сообщения в канале связи, как мы уже говорили, называется сигналом. Процесс преобразования сообщения в сигналы называется кодированием. Например, вся информация от внешнего мира, поступающая на наши органы чувств, кодируется в виде электрических импульсов в нейронах и в таком виде поступает в центральную нервную систему.

На втором конце канала связи сигналы расшифровываются или декодируются и вновь преобразуются в сообщение. Поскольку передача сигналов в любом канале связи сопровождается помехами, то полученное сообщение будет несколько отличаться от первоначального.

Американский инженер и математик Клод Шеннон, который считается основоположником теории передачи информации, в своем классическом труде " Теория передачи электрических сигналов при наличии помех " (1948 г.) предложил следующую схему передачи сигналов по каналам связи: [схема со всякими устройствами, рис 2000]

Как видно из данной схемы, передача информации предполагает наличие источника сообщений и получателя или адресата.

Источник сообщений - это материальный объект, основной особенностью которого является то, что он создает совокупность сведений о своем состоянии.

Получатель или Адресат - это материальный объект, для которого предназначено сообщение.

Если существует взаимосвязь между передаваемыми сигналами, то их можно использовать не полностью. Применяя различные методы кодирования, можно уменьшить число необходимых для передачи сигналов, без уменьшения количества передаваемой информации. Однако избыточность информации желательна, т.к. она ведет к увеличению отношения сигнала к шуму.

Избыточность информации - это разность между максимально возможным и реальным количеством информации, переносимой ее носителем.

В рассмотренном примере об информации букв русского алфавита их избыточность составляет 1 бит (5 бит - 4 бита), т.е. она двукратна. Избыточность снижает степень погрешностей, которые вносятся шумами или помехами. Например, нечеткость шрифта, плохая орфография, недостаток освещения и т.д.

Еще один пример. Так вместо текста: " Приеду в Омск поездом номер три в восемь часов, пятнадцать минут ", можно передать по телеграфу более короткий текст: " Приеду Омск поездом три, восемь, пятнадцать " или так: " поезд 3, 8 -15 ".

Вследствие наличия помех в каналах связи, одна из букв или цифр в сообщении может принята не правильно. Но если в первых двух примерах это не несет никаких ошибок в понимании смысла сообщения, то в третьем случае может полностью его изменить. Например: " Подъезд 3, 8 -15 ".

Поэтому, как мы уже говорили, избыточность информации приводит к повышению надежности передачи информации по каналу связи.

Использование теории информации в биологии и медицине:

1. Живые организмы, как открытые термодинамические системы, обмениваются с окружающей средой и внутри себя веществом, энергией и информацией. Поток информации обязательно должен учитываться при рассмотрении механизмов, поддерживающих постоянство параметров живой системы. Процесс усвоения, переработки, использования информации происходит во всех звеньях, начиная с молекул (ДНК) и кончая сложными сообществами живых организмов.

2. Значительным шагом была расшифровка кибернетикой кодированных сигналов в зародышевых клетках, несущих информацию о наследственности (генетика, теория наследственности).

3. Теория информации позволила получить количественные характеристики системы человека (восприятие рецепторами кожи -109бит/с, количество информации, воспринимаемой центральной нервной системой неосознанно -109бит/с, осознанно -102бит/с и т.д.), что позволило выявить каналы информации, возможности каждого из каналов и проникнуть в структуру мозга.

4. Сейчас доказано, что причины многих тяжелых заболеваний человека, таких как гипертония, рак, сахарный диабет и другие, связаны с нарушением процесса управления и переработки информации.

5. В эпидемиологических, санитарно-гигиенических и социально-гигиенических исследованиях.



Поделиться:


Последнее изменение этой страницы: 2021-09-25; просмотров: 35; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.145.93.136 (0.094 с.)