Главная Случайная страница


Полезное:

Как сделать разговор полезным и приятным Как сделать объемную звезду своими руками Как сделать то, что делать не хочется? Как сделать погремушку Как сделать так чтобы женщины сами знакомились с вами Как сделать идею коммерческой Как сделать хорошую растяжку ног? Как сделать наш разум здоровым? Как сделать, чтобы люди обманывали меньше Вопрос 4. Как сделать так, чтобы вас уважали и ценили? Как сделать лучше себе и другим людям Как сделать свидание интересным?


Категории:

АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника






Пример вычисления среднего квадратического отклонения





Число поросят в помете, голов Отклонение Квадраты отклонений
  -1  
  -2  
  +1  
     
  +2  

Величина лимита в данной совокупности составляет: 13 – 9 = 4, а среднее квадратическое равно:

Сигма показывает среднее отклонение каждой варианты от средней арифметической. При нормальном распределении особей совокупности в пределах ±1 δ находится приблизительно 68 % особей, ±2 δ – 95 % и ±3 δ – 99,7 %. Это значит, что практически вся изменчивость признака укладывается от средней арифметической в пределах ±3 δ (правило трех сигм). Если особь не укладывается в эти пределы по основным признакам, значит, она является не типичной для данной группы. Эту особенность учитывают при комплектовании подопытных групп. Чем больше сигма, тем выше изменчивость признака.

Сигма и средняя арифметическая имеют одну и ту же единицу измерения. А если требуется сравнить изменчивость признаков, выраженных в разных единицах измерения, определяют коэффициент вариации по формуле:

 

 

16. Как вычисляется коэффициент вариации и что он показывает

 

Вариа́ция — различие значений какого-либо признака у разных единиц совокупности за один и тот же промежуток времени. Причиной возникновения вариации являются различные условия существования разных единиц совокупности. Вариация — необходимое условие существования и развития массовых явлений.Коэффициент вариации используют для сравнения рассеивания двух и более признаков, имеющих различные единицы измерения. Коэффициент вариации представляет собой относительную меру рассеивания, выраженную в процентах. Он вычисляется по формуле: ,где - искомый показатель, - среднее квадратичное отклонение, - средняя величина.

 

· коэффициент вариации:

Коэффициент вариации случайной величины — мера относительного разброса случайной величины; показывает, какую долю среднего значения этой величины составляет её средний разброс. Исчисляется в процентах. Вычисляется только для количественных данных. В отличие от среднего квадратического или стандартного отклонения измеряет не абсолютную, а относительную меру разброса значений признака в статистической совокупности.

 

 

17. Какие показатели применяют для измерения связи между признаками

 

Слово «корреляция» (от английского correlation) означает соотношение, соответствие. Оно удачно отражает особенность зависимости, при которой определенному значению одного факторного признака может соответствовать несколько значений результативного признака (показателя). На основе этих значений можно определить среднюю величину последнего, соответствующую каждому конкретному значению факторного признака.

Коэффициент корреляции-это математическая мера корреляции двух величин. В том случае, когдаизменение одной из величин не приводит к закономерному изменению другой величины, то можно говоритьоб отсутствии корреляции между этими величинами. Коэффициенты корреляции могут бытьположительными и отрицательными. Если при увеличении значения одной величины происходитуменьшение значений другой величины, то их коэффициент корреляции отрицательный. В случае, когдаувеличение значений первого объекта наблюдения приводит к увеличениям значения второго объекта, томожно говорить о положительном коэффициенте

Связь, при которой разным значениям факторного признака соответствуют различные средние значения результативного признака называется корреляционной. Именно корреляционные связи наиболее часто используются при исследовании общественных явлений.

Суть корреляционной зависимости сводится к тому, что, с изменением значения признака х закономерным образом изменяется среднее значение признака у, в то время как в каждом отдельном случае значение признака у (с различными вероятностями) может принимать множество различных значений.

По направлению различают прямые и обратные связи. При прямой связи с ростом факторного признака растет и результативный признак. При обратной связи с увеличением факторного признака результативный уменьшается или наоборот. Например, рост производительности труда приводит к снижению себестоимости единицы продукции.

Корреляционная таблица строится по типу «шахматной», т.е. в подлежащем таблицы выделяются группы по факторному признаку х, в сказуемом – по результативному у или наоборот, а в клетках таблицы на пересечении х и у показано число случаев совпадения каждого значения х с соответствующим значением у.

Метод корреляционных таблиц применим не только к количественным, но и к описательным (качественным) признакам, взаимосвязи между которыми часто приходится изучать при проведении различных социологических исследований путем опросов или анкетирования. В этом случае такие таблицы называют таблицами сопряженности. Они могут иметь различную размерность. Простейшая размерность – 2х2 (таблица «четырех полей»), когда по альтернативному признаку («да» – «нет», «хорошо» – «плохо» и т.д.) выделяются 2 группы.

 

 

корреляционном анализе недостаточно лишь выявить тем или иным методом наличие связи между исследуемыми показателями. Теснота такой связи может быть различной, поэтому весьма важно ее измерить, т.е. определить меру связи в каждом конкретном случае. В статистике для этой цели разработан ряд показателей (коэффициентов), используемых как для количественных, так и для качественных признаков.

Для измерения тесноты связи между группировочными признаками в таблицах взаимной сопряженности могут быть использованы такие показатели, как коэффициент ассоциации и контингенции (для «четырехклеточных таблиц»), а также коэффициенты взаимной сопряженности Пирсона и Чупрова (для таблиц любой размерности).

Применительно к таблице «четырех полей», частоты которых можно обозначить через a, b, c, d, коэффициент ассоциации (Д. Юла) выражается формулой (158):

. (158)

Его существенный недостаток: если в одной из четырех клеток отсутствует частота (т.е. равна 0), то 1, и тем самым преувеличена мера действительной связи.

Чтобы этого избежать, предлагается (К. Пирсоном) другой показатель – коэффициент контингенции [53]:

. (159)

Рассчитаем коэффициенты (158) и (159) для нашего примера (таблица 48):

;

Связь считается достаточно значительной и подтвержденной, если >0,5 или >0,3.

Поэтому в нашем примере оба коэффициента характеризуют достаточно большую обратную зависимость между исследуемыми признаками.

Теснота связи между 2 и более признаками измеряется с помощью коэффициентов взаимной сопряженности Пирсона (160) или Чупрова (161), рассчитываемых на основе показателя χ2:

, (160) (161)

В нашем примере . Рассчитывать коэффициент Чупрова для таблицы «четырех полей» не рекомендуется, так как при числе степеней свободы ν =(2-1)(2-1)=1 он будет больше коэффициента Пирсона (в нашем примере КЧ=0,54). Для таблиц же большей размерности всегда КЧП.

 

 

18. Как вычисляют коэффициент корреляции в больших и малых выборках?

 

На практике часто наблюдают не один, а два взаимосвязанных между собой признака. Например: температура воздуха и скорость ветра, высота и толщина стволов деревьев, количество выпавших осадков и число солнечных дней, взаимосвязь между индивидуально-психологическими характеристиками личности и стилем их поведения и т. д. между этими показателями существуют определенные взаимосвязи. Значение средней величины одного признака изменяется при изменении другого признака.

Различают два типа зависимостей: функциональную и стохастическую.

При функциональной связи каждой независимой переменной х соответствует вполне определенное значение зависимой переменной у.

Когда определенному значению независимого признака х соответствует несколько значений другого признака у, зависимость приобретает стохастический характер. Взаимосвязи между варьирующими признаками называется корреляцией.

Date: 2015-06-11; view: 1265; Нарушение авторских прав; Помощь в написании работы --> СЮДА...



mydocx.ru - 2015-2024 year. (0.004 sec.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав - Пожаловаться на публикацию