Главная Случайная страница


Полезное:

Как сделать разговор полезным и приятным Как сделать объемную звезду своими руками Как сделать то, что делать не хочется? Как сделать погремушку Как сделать так чтобы женщины сами знакомились с вами Как сделать идею коммерческой Как сделать хорошую растяжку ног? Как сделать наш разум здоровым? Как сделать, чтобы люди обманывали меньше Вопрос 4. Как сделать так, чтобы вас уважали и ценили? Как сделать лучше себе и другим людям Как сделать свидание интересным?


Категории:

АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника






Тесты по дисциплине «Биометрия»





1. Основы науки, названной биометрикой, в 1899 году разработал:

+: Гальтон;

-: Льюин;

-: Фишер;

-: Госсет.

 

2. Множество отдельных отличающихся друг от друга и в то же время сходных в некоторых отношениях объектов называется:

-: вариацией;

-: дисперсией;

+: совокупностью;

-: медианой.

 

3. Объемом совокупности называют:

-: различия в совокупности;

-: вариацию совокупности;

+: число единиц в совокупности;

-: дисперсию совокупности.

 

4. Синонимом термина «дисперсия» является:

-: количество;

-: совокупность;

-: качество;

+: вариация.

 

5. Вариация – это:

+: различия между единицами совокупности;

-: сходство между единицами совокупности;

-: число единиц в совокупности;

-: объем совокупности.

 

6. Варианта – это:

-: объем совокупности;

+: значение единицы совокупности;

-: средняя арифметическая;

-: среднее квадратическое отклонение.

 

7. Варианты являются числовыми значениями:

-: средней арифметической;

+: случайной переменной;

-: средней геометрической;

-: постоянной переменной.

 

8. Теоретически бесконечно большую или приближающуюся к бесконечности совокупность называют:

-: выборочной;

-: постоянной;

+: генеральной;

-: варьирующей.

 

9. Выборочные совокупности по своим размерам являются:

-: теоретически бесконечными;

+: сравнительно небольшими;

-: включающими одну единицу;

-: приближающимися к бесконечности.

 

10. Совокупность животных характеризуется по масти. Такую вариацию называют:

-: количественной;

-: сходной;

+: качественной;

-: постоянной.

 

11. На прерывную (дискретную) и непрерывную разделяется:

+: количественная вариация;

-: ограниченная вариация;

-: качественная вариация;

-: случайная вариация.

 

12. Число детенышей в помете у совокупности серебристо-черных лисиц можно отнести к:

-: случайной вариации;

-: ограниченной вариации;

+: количественная вариация;

-: качественная вариация;

 

13. Отличие прерывной (дискретной) вариации от непрерывной заключается в следующем:

-: выражается только дробными числами

-: может выражаться как целыми, так и дробными числами;

+: выражается только целыми числами.

 

14. Частным случаем качественной вариации является:

-: количественная;

-: ограниченная;

-: дисперсная;

+: альтернативная.

 

15. В совокупности выделяют только две группы. Такая вариация называется:

+: альтернативной;

-: генеральной;

-: случайной;

-: количественной.

 

16. Количество вариант от 60 до 100 подразделяют на:

-: 5-6 классов;

-: 8-12 классов;

+: 7-10 классов;

-: 10-15 классов.

 

17. На 10 – 15 классов подразделяется:

-: 100 вариант;

-: 50 вариант;

-: 25 вариант;

+: более 200 вариант.

 

18. Расположение вариант от меньших величин к большим называется:

+: ранжировкой;

-: группировкой;

-: объединением;

-: слиянием.

 

19. Ряды, получаемые в ходе распределения вариант по классам называются:

-: переменными;

+: вариационными;

-: случайными;

-: количественными.

 

20. Класс, обладающий наибольшей частотой получил название:

-: вариационный;

-: запредельный;

+: модальный;

-: лимитный.

 

21. Модальным называется класс, обладающий:

-: наименьшей частотой;

-: включающий среднюю арифметическую;

+: наибольшей частотой.

 

22. Лимитами называются значения:

-: модального класса;

-: средней арифметической;

+: крайнего класса;

-: среднего квадратического отклонения.

 

23. Полигон распределения применятся при:

-: непрерывной вариации;

+: дискретной вариации;

-: случайной вариации;

-: постоянной вариации.

 

24. Кривая распределения - это:

+: графическое изображение вариационного ряда;

-: распределение вариационного ряда по классам;

-: расчет частоты встречаемости;

-: определение модального класса в вариационной ряду.

 

25. При построение полигона распределения на ось абсцисс наносятся:

-: частоты;

-: лимиты;

+: классы;

-: медианы.

 

26. При построение полигона распределения на ось ординат наносятся:

+: частоты;

-: лимиты;

-: классы;

-: медианы.

 

27. Классы объединяют несколько значений вариант. В этом случае наиболее подходящим является построение:

-: полигона распределения;

-: вариационной кривой;

+: гистограммы распределения;

-: кривой распределения.

 

28. Полигон распределения получается многовершинным в случае, если обнаруживается:

-: один модальный класс;

-: два лимита;

-: несколько медиан;

+: несколько модальных классов.

 

29. При изучении графического распределения, в вариационных рядах обычно наблюдается следующее:

-: частота вариант постепенно возрастает к краям вариационного ряда;

+: частота вариант постепенно убывает к краям вариационного ряда;

-: частота вариант остается неизменной.

 

30. Причиной многовершинности вариационных рядов не является:

-: малый объем выборки;

-: однородность биологического материала;

+: отсутствие модального класса;

 

31. Значение модального класса называется:

-: лимитом;

-: медианой;

+: модой;

-: пределом.

 

32. Величина, в биологической статистике обозначаемая Ме называется:

-: модой;

+: медианой;

-: случайной переменной;

-: модальным классом.

 

33. Модальным является класс «46-48». В этом случае мода равняется:

-: 46;

+: 47;

-: 48;

-: 94.

 

34. Значение варианты, находящейся точно в середине ряда называется:

-: лимитом;

-: модой;

-: пределом;

+: медианой

 

35. Средняя арифметическая обозначается:

-: σ;

+: ;

-: хi;

-: ∑.

 

36. Объем совокупности обозначается:

-: хi;

+: n;

-: хg;

-: S.

 

37. Сумма значений всех вариант, входящих в совокупность, разделенное на общее число вариант, будет выражать:

-: среднюю геометрическую;

-: среднее квадратическое отклонение;

-: среднюю ошибку;

+: среднюю арифметическую.

 

38. Вариационный ряд включает следующие значения: 31, 36, 37, 43, 48. Средняя арифметическая будет:

+: больше х3;

-: меньше х3

-: равна х3.

 

39. Средняя арифметическая вычисляется по формуле:

+:

-:

-:

-:

 

40. Синонимом термина «варианса» является:

-: средняя арифметическая;

-: средняя ошибка средней арифметической;

+: средний квадрат отклонений вариант от средней арифметической;

-: средняя геометрическая.

 

41. Среднее квадратическое отклонение обозначается как:

-: ;

-: t;

-: n;

+: σ.

 

42. Сумма квадратов отклонений отдельных значений данной переменной от средней арифметической, деленной на число вариант называется:

-: медианой;

+: вариансой;

-: модой;

-: средней геометрической.

 

43. Число степеней свободы обозначается как:

-: ;

-: Sx;

+: n – 1;

-: σ.

 

44. Число степеней свободы в выборке включающей 41 вариант равняется:

-: 82;

-: 42;

+: 40;

-: 41.

 

45.Варианса вычисляется по формуле:

+:

-:

-:

 

46. Основным критерием для применения средней геометрической является:

-: возрастание данного признака путем арифметического прибавления к первоначальному значению какой-то величины;

+: возрастание данного признака путем умножения пропорционально степени;

-: убывание данного признака путем вычитания от первоначального значения какой-то величины;

-: убывание данного признака путем деления пропорционально степени.

 

47. Среднее квадратическое отклонение выражается в тех же единицах, что и:

-: число степеней свободы;

+: средняя арифметическая;

-: объем совокупности.

 

48. Коэффициент вариации обозначается:

-: σ;

-: σ2;

+: υ;

-: ∑.

 

49.Средняя геометрическая обозначается:

-: i;

+: g;

-: n;

-: υ.

 

50. Процентное соотношение, которое составляет σ от составляет:

+: коэффициент вариации;

-: коэффициент ассиметрии;

-: коэффициент корелляции.

-: коэффициент регрессии.

 

51 В случае если средняя арифметическая равна 6,8; варианса 0,8, коэффициент вараиции будет равен:

-: (6,8/0,8) х 100%;

+: (0,8/6,8) х 100%;

-: (0,8 х 6,8) х 100%;

-: (6,8 + 0,8) х 100%.

 

52. Взвешенная средняя арифметическая применяется для анализа:

-: альтернативной совокупности;

+: сложной совокупности, состоящей из нескольких частных;

-: выборочной совокупности;

-: постоянной совокупности.

 

53. Свойством средней арифметической не является:

-: отражение всей совокупности в целом;

-: обобщение характеристики данного изучаемого признака;

+: отражение минимального значения изучаемой совокупности.

 

54. Синонимом термина «вероятностный» является:

-: статистический;

-: постоянный;

+: стохастический;

-: определенный.

 

55. Число степеней свободы, которым характеризуется данная выборка равно 75. Объем выборки в этом случае равен:

-: 70;

-: 150;

-: 74;

+: 76.

 

56. На каждой из сторон кубика написаны цифры 1,2,3,4,5,6. Вероятность того, что наверху будет цифра 4 равна:

-: ;

-: 50%;

+: ;

-: 25%.

 

57. Каждое отдельное явление, взятое само по себе, представляется случайным. Но взятые в массе они обнаруживают:

-: вероятностные закономерности;

+: статистические закономерности;

-: стохастические закономерности;

-: случайные закономерности.

 

58. Варианса представляет собой сумму квадратов:

-: средней геометрической;

-: средней арифметической;

+: среднего отклонения от средней арифметической;

-: средней ошибки средней арифметической.

 

59. В данной породе за несколько последних лет обнаружено 110 комолы телят из общего количества 55000 родившихся. Вероятность рождения рогатого теленка равна:

-: 50%;

-: 0,002;

-: 0,998;

-: 0%.

 

60. Априорными называются вероятности:

-: известные после проведения опыта;

+: известные до проведения опыта;

-: равные сумме вероятностей до и после проведения опыта.

 

61. Вероятности, которые становятся известными после проведения эксперимента называются:

-: априорными;

-: стохастическими;

+: апостериорными;

-: случайными.

 

62. Символом F обозначается:

-: сумма квадратов отклонений;

+: частота встречаемости класса;

-: вариационный ряд;

-: средняя геометрическая.

 

63. При возрастание данного признака путем умножения пропорционально степени целесообразно применять:

+: среднюю геометрическую;

-: среднюю арифметическую;

-: среднюю ошибку средней арифметической;

-: средний квадрат отклонений.

 

64. Синонимом термина «средний квадрат отклонений вариант от средней арифметической» является;

-: коварианта;

-: регрессия;

+: варианса;

-: хи-квадрат.

 

65. Из перечисленных ученых проблемами биостатистики не занимался:

-: Фишер;

-: Госсет;

-: Гальтон;

-: Эйвери.

 

66. Апостериорными называются вероятности:

+: известные после проведения опыта;

-: известные до проведения опыта;

-: равные сумме вероятностей до и после проведения опыта.

 

67. Распределение вариант в виде вариационного ряда, частоты в котором соответствуют коэффициентам разложения бинома Ньютона можно наглядно показать с помощью:

-: аппарата Фишера;

+: аппарата Гальтона;

-: аппарата Паусона;

-: аппарата Госсета.

 

68. Треугольник из цифр, в котором цифры каждого последующего ряда получаются путем сложения двух цифр ряда, расположенного над ним называется:

+: треугольником Паскаля;

-: треугольником Ньютона;

-: треугольником Пуассона;

-: треугольником Фишера.

 

69. Средняя арифметическая генеральной совокупности обозначается:

-: ;

+: µ;

-: хi;

-: σ.

 

70. Средняя ошибка средней арифметической вычисляется по формуле:

+: S = σ / ;

-: S = σ + ;

-: S = σ х ;

-: S = σ - ;

 

71. Под псевдонимом Стьюдент работал английский математик:

-: Фишер;

-: Гальтон;

-: Пирсон;

+: Госсет.

 

72. Нормированное отклонение обозначается:

-: Sx;

-: µ

-: хi;

+: t.

 

73. Отношение численности выборочной совокупности (n) к общей численности генеральной совокупности (N) носит название:

-: коэффициент вариации;

-: нормированное отклонение;

+: доля выборки;

-: дисперсия.

 

74. Погрешность, которую измеряет средняя ошибка называется:

-: ошибкой точности;

+: ошибкой выборочности;

-: ошибкой вариации;

-: ошибкой дисперсии.

 

75.Закон больших чисел заключается в следующем:

-: чем меньше объем изучаемой выборки, тем больше разница между и µ;

+: чем больше объем изучаемой выборки, тем меньше разница между и µ;

-: и µ во всех случаях одинаковы.

 

76. Распределение вероятности, полученное Стьюдентом получило название:

-: fx – распределение по Стьюденту;

+: t – распределение по Стьюденту;

-: σ – распределение по Стьюденту;

-: – распределение по Стьюденту;

 

77.Возможные границы, в пределах которых находится средняя арифметическая генеральной совокупности получили название:

-: выборочных;

-: переменных;

-: стохастических;

+: доверительных.

 

78. Нулевая гипотеза основывается на следующем утверждении:

-: между данными показателями существуют значительные отличия;

-: между данными показателями существуют незначительные отличия;

+: между данными показателями различий нет.

 

79. Желаемая точность наблюдений вычисляется по формуле:

-: ∆ = х t;

-: ∆ = σ х t;

+: ∆ = t х Sx;

-: ∆ = n х σ.

 

80. Одним из условий правильного отбора выборки является:

-: отбор типичных образцов;

+: отбор вариант для выборки на основе случайности;

-: отбор определенных вариант;

-: отбор вариант с наибольшими значениями.

 

81. Случайная бесповторная выборка предполагает что:

-: взятые образцы возвращаются обратно в генеральную совокупность;

-: отбираются только типичные образцы;

+: взятые образцы не возвращаются обратно в генеральную совокупность;

-: отбираются только наибольшие и наименьшие варианты.

 

82. Средняя ошибка коэффициента вариации вычисляется по формуле:

+: S v = υ / ;

-: S v = υ2 x σ;

-: S v = υ x ;

-: S v = υ2 / σ.

 

83. Полученное среднее арифметическое является верным если:

+: фактическое нормированное отклонение больше табличного;

-: фактическое нормированное отклонение меньше табличного;

-: фактическое нормированное отклонение не отличается от табличного.

 

84. Правило трех сигм гласит:

+: если разница превышает свою ошибку почти в 3 раза, она достоверна с верностью 0,99;

-: если разница не превышает свою ошибку, она достоверна с верностью 0,33.

-: если разница меньше своей ошибки в 3 раза, она достоверна с верностью 0,99;

 

85. Функциональные зависимости свидетельствуют о том, что:

-: численному значению одной переменной величины соответствует множество значений другой переменной;

+: каждому значению одной переменной величины соответствует одно вполне определенное значение другой переменной;

-: численные значения переменных не зависят друг от друга.

 

86. Корреляционная связь свидетельствует о том, что:

+: численному значению одной переменной величины соответствует множество значений другой переменной;

-: каждому значению одной переменной величины соответствует одно вполне определенное значение другой переменной;

-: численные значения переменных не зависят друг от друга.

 

87. При положительной корреляции зависимость между признаками следующая:

-: увеличение одного признака соответственно связано с уменьшением другого;

+: увеличение одного признака соответственно связано с увеличением другого признака;

-: признаки не влияют друг на друга.

 

88. При отрицательной корреляции зависимость между признаками следующая:

+: увеличение одного признака соответственно связано с уменьшением другого;

-: увеличение одного признака соответственно связано с увеличением другого признака;

-: признаки не влияют друг на друга.

 

89.Чем больше детенышей в помете многоплодных животных тем меньший каждый из них весит. Это является примером:

+: отрицательной корреляции;

-: функциональной зависимости;

-: нулевой гипотезы;

-: положительной корреляции.

 

90. Нормированное отклонение t представляет собой:

+: отклонение тех или иных вариант от их средней арифметической, выраженной в долях среднего квадратического отклонения;

-: отклонение тех или иных вариант от их вариансы;

-: отклонение тех или иных вариант от их медиан, выраженное в процентном соотношении;

-: сходство тех или иных вариант, выраженное в процентном соотношении.

 

91. Коэффициент корреляции обозначается

-: t;

-: σ;

+: r;

-: fx.

 

92. Латинской буквой r в биологической статистики обозначается:

-: коэффициент ассиметрии;

-: коэффициент вариации;

-: коэффициент распределения;

+: коэффициент корреляции.

 

93. Коэффициент корреляции равен нулю. Это означает что:

-: вариация обоих признаков взаимосвязана;

-: имеет место отрицательная корреляция;

+: вариация обоих признаков происходит независимо;

-: имеет место положительная корреляция.

 

94. Пределы в которых могут изменятся коэффициенты корреляции варьируют:

+: от 0 до 1 и от 0 до -1;

-: от 0 до 100%;

-: от 0,01 до 0,99;

-: от 1 до ∞.

 

95.Тесная корреляция возникает когда:

-: r ≥ 0,1;

-: r ≥ 0,5;

+: r ≥ 0,7;

-: r = 0.

 

96. На слабую корреляционную связь указывает значение коэффициента корреляции:

+: ниже 0,5;

-: ниже 0,1;

-: больше 0,1 но меньше 0,3.

-: равное нулю.

 

97. Ошибка выборочности коэффициента корреляции в больших выборках вычисляется по формуле:

-: Sr = ∑ r2;

-: Sr = / ;

+: Sr = ;

-: Sr = х r2.

 

98. Уровни значимости, применяемые в биологии следующие:

-: -1 и +1;

+: 0,05 и 0,01;

-: 0 и 1;

-: 1 и 10.

 

99. Формула Бравэ применяется в случае:

-: прямого вычисления коэффициента вариации;

-: непрямого вычисления коэффициента вариации;

-: прямого вычисления коэффициента корреляции;

+: непрямого вычисления коэффициента корреляции.

 

100. Увеличение дозы ионизирующего облучения ведет к увеличению числа мутаций. Это является примером:

+: положительной корреляции;

-: функциональной зависимости;

-: отрицательной корреляции;

-: вероятностных событий.

 

101.Коэффициент корреляции для генеральной совокупности обозначается:

-: µ;

-: σ;

+: ρ;

-: α.

 

102. Установить возможные границы, в пределах которых находится средняя арифметичекая генеральной совокупности можно по формуле:

-: - t S ;

+: - t S ≤ µ ≤ + t S ;

-: + t S ;

-: µ = ( - t S )( + t S ).

 

103. множественной корреляцией обычно понимают:

-: зависимость изменения величины y от одновременного изменения величины x;,

-: зависимость изменения величины x от одновременного изменения величины y;

+: зависимость изменения величины x от одновременного изменения величины y, z и т.д;

-: независимость величин x, y, z между собой.

 

104. На каждой из сторон кубика написаны цифры 1,2,3,4,5,6. Вероятность того, что наверху будет цифра 3 равна:

-: ;

-: 50%;

+: ;

-: 25%.

 

105. Средняя ошибка разницы между средними арифметическими обозначается:

-: St;

-: Sf;

+: Sd;

-: Sσ.

 

106. Указывает на степень связи в вариации двух переменных величин, но не дает возможности судить о том, как количественно меняется одна величина по мере изменения другой:

-: коэффициент регрессии;

-: коэффициент вариации;

-: коэффициент распределения;

+: коэффициент корреляции.

 

107. Устанавливает степень связи в вариации двух переменных величин, а также дает возможность судить о том, как количественно меняется одна величина по мере изменения другой:

+: коэффициент регрессии;

-: коэффициент вариации;

-: коэффициент распределения;

-: коэффициент корреляции.

 

108. Регрессия может быть выражена несколькими способами, одним из которых не является:

-: построение эмпирических линий регрессии;

-: вычисление коэффициента регрессии;

-: составление уравнений регрессии;

+: построение регрессионной решетки.

 

109. К способам, позволяющим выразить регрессию графически относят:

+: построение эмпирических линий регрессии;

-: вычисление коэффициента регрессии;

+: составление уравнений регрессии;

-: построение регрессионной решетки.

 

110. Коэффициент регрессии обозначается:

-: r;

-: Sd;

+: R;

-: Sx.

 

111. Для вычисления коэффициента регрессии используются следующие формулы:

+: Rx/y = r x σxy;

-: Rx/y = r + σxy;

+: Ry/x = r x σyx;

-: Ry/x = r + σyx.

 

112. Латинской буквой R обозначается:

-: коэффициент вариации;

-: коэффициент ассиметрии;

+: коэффициент регрессии;

-: коэффициент корреляции.

 

113. Односторонней регрессией называется случай, когда:

-: значения двух изучаемых признаков являются строго фиксированными;

-: свободно варьируют два изучаемых признака;

-: определенно варьирует один из двух изучаемых признаков;

+: свободно варьирует один из изучаемых признаков, значения же второго признака являются строго фиксированными;

 

114. Двусторонней регрессией является:

+: возможность изучения изменения x по y, и изменение y по x;

-: возможность изучения изменения x по изменению коэффициента корреляции;

+: возможность изучения изменения z по y, и изменение y по z;

-: возможность изучения изменения y по изменению коэффициента корреляции.

 

115. Коэффициент регрессии может быть вычислен, если известны:

+: сигмы обоих вариационных рядов по признакам x и y, и коэффициенты корреляции между ними;

-: средние геометрические по признакам x и y, и коэффициенты корреляции между ними;

-: средние арифметические по признакам x и y, и коэффициенты корреляции между ними;

-: коэффициенты вариации и корреляции между признаками x и y.

 

116. Коэффициент регрессии равен коэффициенту корреляции в случае, если:

-: σx + σy = 1;

-: σx х σy = 1;

+: σxy = 1;

-: σx - σy = 1.

 

117. Коэффициент корреляции между живым весом поросят y и их возрастом x равен 0,5; σx = 4,0; σy = 2,0. В этом случае коэффициенты регрессии будут равны:

+: 1 и 0,25;

-: 4,0 и 2,0;

-: 0,5 и 2,5;

-: 1 и 0.

 

118. Ошибка коэффициента регрессии обозначается следующим образом:

+: SRx/y;

-: SRd;

+: SRy/x;

-: SRt.

 

119. Оценка достоверности коэффициента регрессии вычисляется по формуле:

-: t = R - SR;

-: t = R x SR;

-: t = R + SR;

+: t = R / SR;

 

120. Ковариация – это:

+: связующее звено между корреляционным и регрессионным анализом;

-: связующее звено между регрессионным и дисперсионным анализом;

-: связующее звено между корреляционным и дисперсионным анализом;

-: связующее звено между дисперсионным и вариационным анализом;

 

121. Регрессия – это:

-: соотношение численности выборочной совокупности к генеральной;

-: погрешность, которую измеряет средняя ошибка;

-: граница, в пределах которой находится генеральная совокупность;

+: метод определения связи между варьирующими признаками;

 

122. Коэффициент корреляции между изменением давления крови у женщин y и их возрастом x равен 0,2; σx = 3,0; σy = 2,0. В этом случае коэффициенты регрессии будут равны:

+: 0,3 и 0,13;

-: 1 и 0,5;

-: 0 и 1;

-: 0,8 и 0,7.

 

123. Двумя значениями выражается:

-: коэффициент вариации;

-: коэффициент ассиметрии;

+: коэффициент регрессии;

-: коэффициент корреляции.

 

124. Путем ежедневного взятия проб с поля было изучено изменение высоты растений сои y с их возрастом x. Для установления степени вариации двух переменных величин, а также определения как количественно меняется один признак по мере изменения другого вычисляют:

-: долю выборки;

+: коэффициент регрессии;

-: доверительные границы;

-: промежуточный интервал.

 

125. Количественно установить изменение одной величины при изменении другой на единицу можно с помощью:

-: вариационного метода анализа;

+: регрессионного метода анализа;

-: корреляционного метода анализа;

-: установления промежуточного интервала.

 

126. Основателем биометрики является:

+: Гальтон;

-: Фишер;

-: Стьюдент;

-: Рокицкий.

 

127. Отбрасывание нулевой гипотезы происходит, когда:

+: нет различий между фактическими и теоретически ожидаемыми результатами.

-: степень различий между фактически полученными и исчисленными теоретическими данными ≥ 0,5;

-: степень различий между фактически полученными и исчисленными теоретическими данными ≤ 0,5;

-: различия между фактическими и теоретически ожидаемыми результатами значительны.

 

128. Бóльшим объемом обладает:

+: генеральная совокупность;

-: выбороная совокупность;

+: теоретически бесконечная совокупность;

-: популяция.

 

129. Корреляционный и регрессионный коэффициенты можно связать, используя метод:

-: дисперсии;

+: ковариации;

-: хи-квадрата;

-: критерия Стьюдента.

130. Примером положительной корреляции является:

+: увеличение числа хромосомных мутаций при увеличении дозы радиоактивного излучения;

-: потеря веса подопытного животного по причине заболевания неизвестной болезнью;

-: уменьшение массы детенышей, при увеличении их численности в помете;

-: снижение плодовитости самки, связанное с возрастными изменениями.

131. Дисперсионный анализ позволяет:

+: установить роль отдельных факторов в изменчивости того или иного признака;

-: установить промежуточный интервал между классами;

-: вычислить доверительные границы генеральной совокупности;

-: вычислить объем выборочной совокупности.

 

132. Методы дисперсионного анализа были разработаны английским математиком и биологом:

-: Пирсоном;

-: Госсетом;

-: Стьюдентом;

+: Фишером.

 

133. Дисперсионный анализ может различаться:

+: по характеру градаций внутри факторов;

-: по доле выборки;

+: по числу анализируемых факторов;

-: по доверительным границам.

 

134. Нулевая гипотеза предполагает:

-: значительное влияние фактора А на фактор В;

-: незначительное влияние фактора А на фактор В;

+: данный фактор А не влияет на фактор В.

 

135. Однофакторными, двуфакторными, трехфакторными бывают:

-: метод регрессии;

-: генеральная совокупность.

-: ковариация

+: дисперсионный анализ;

 

136. Для проведения дисперсионного анализа необходимо вычислить:

-: коварианту;

+: сумма квадратов отклонений от средней арифметической;

-: среднюю геометрическую;

-: коэффициент регрессии.

 

137. Число степеней свободы обозначается следующим образом:

-: Sd;

+: df;

-: N;

-: x i.

 

138. Градацией фактора называют:

+: несколько значений изучаемого в эксперименте фактора А;

-: изменение фактора А относительно фактора В;

+: несколько значений изучаемого в эксперименте фактора В;

-: изменение фактора В относительно фактора А.

 

139. Иерархическими моделями называются:

-: расположение уровней одного фактора случайным образом среди уровней другого фактора;

-: отсутствие строгой закономерности при расположении уровней одного фактора, относительно другого;

+: ступенчатое расположение уровней одного фактора, относительно уровней другого фактора.

 

140. Установить влияют ли данные факторы на изменчивость признака или нет и какие из них имеют больший удельный вес в общей изменчивости позволяет:

-: методы регрессионного анализа;

-: методы ковариационного анализа;

+: методы дисперсионного анализа;

-: методы корреляционного анализа;

 

141. При проведении дисперсионного анализа, обычно разные уровни принято обозначать буквой i, а отдельные варианты:

-: A;

+: j;

-: r;

-: Sx.

 

142. Разделение общей суммы квадратов на 4 компонента (вариация под влиянием фактора А, вариация под влиянием фактора В, вариация под совместным влиянием А и В, случайные отклонения) применяется при проведении:

-: однофакторного дисперсионного анализа;

+: двухфакторного дисперсионного анализа;

-: трехфакторного дисперсионного анализа.

 

143. В дисперсионном анализе общая сумма вариант по каждой изучаемой группе обозначается как:

+: T;

-: S;

-: R;

-: F.

 

144. Принятие данной гипотезы для признания ее правильности возможно в случае если:

-: фактически полученные данные значительно расходятся с теоретически ожидаемыми;

-: степень несоответствия фактических наблюдений с теоретически ожидаемым результатом ≥ 0,5;

-: степень несоответствия фактических наблюдений с теоретически ожидаемым результатом ≤ 0,5;

+: фактически полученные данные совпадают с теоретически ожидаемыми;

 

145. Критерий хи-квадрат оценивает:

+: степень соответствия фактических данных ожидаемым;

-: вариацию фактора А от взаимодействия факторов В и С.

-: степень изменчивости данного признака;

-: долю выборочной совокупности в общей численности генеральной совокупности.

 

146. С математической точки зрения критерий хи-квадрат означает:

-: отношение суммы значений всех вариант на общее число выборки;

-: отношение сигм обоих вариационных рядов по признакам x и y, помноженное на коэффициенты корреляции между ними;

+: сумма частных от деления квадратов отклонений фактически полученных чисел от ожидаемых на число ожидаемых.

 

147. Хи-квадрат обозначается следующим образом:

-: γ2;

-: σ2;

+: χ2;

-: xg.

 

148. Фактически полученные и теоретически ожидаемые числа полностью совпадают в том случае, если:

-: χ2 = -1;

+: χ2 = 0;

-: χ2 = 1;

-: χ2 = 100%.

 

149. Значения χ2 могут быть:

+: только положительными;

-: только отрицательными;

-: как положительными, так и отрицательными;

-: никогда не равны нулю.

 

150. Нулевая гипотеза в отношении χ2 обозначает, что:

-: имеются существенные различия между фактически полученными и исчисленными теоретическими данными;

-: степень различий между фактически полученными и исчисленными теоретическими данными ≤ 0,5;

-: степень различий между фактически полученными и исчисленными теоретическими данными ≥ 0,5;

+: нет различий между фактически полученными и исчисленными теоретическими данными.

 

151. Допустимой границей вероятности в биологии является:

-: 0,07;

+: 0,05;

-: 0,03;

-: 0,001.

 

152. Отбрасывание нулевой гипотезы – это признание того, что:

+: различия между фактическими и теоретически ожидаемыми результатами являются значимыми;

-: степень различий между фактически полученными и исчисленными теоретическими данными ≥ 0,5;

-: степень различий между фактически полученными и исчисленными теоретическими данными ≤ 0,5;

-: различия между фактическими и теоретически ожидаемыми результатами являются незначительными.

 

153. χ2 вычисляется по формуле:

-: χ2 = ∑ ((О – Е)2 х Е);

+: χ2 = ∑ ((О – Е)2 / Е);

-: χ2 = ∑ (О – Е)2 + Е;

-: χ2 = ∑ (О – Е)2 – Е.

 

154. Если отбрасывание нулевой гипотезы производится при р = 0,01, то шанс на ошибку равен:

-: 0,01 из 100;

-: 0,1 из 100;

+: 1 из 100;

-: 10 из 100.

 

155. Бóльшим основанием для отбрасывания нулевой гипотезы является:

-: если фактически полученное значение χ2 превышает табличное в графе вероятности 0,99;

-: если фактически полученное значение χ2 превышает табличное в графе вероятности 0,1;

-: если фактически полученное значение χ2 превышает табличное в графе вероятности 0,05;

+: если фактически полученное значение χ2 превышает табличное в графе вероятности 0,01;

 

156. В биологических исследованиях принято отбрасывать нулевую гипотезу (при df = 1) когда χ2 превышает 3,841, (при df = 2 когда χ2 превышает 6,000, (при df = 3) когда χ2 превышает 7,82. Значения же χ2 превышающего эти величины составляют:

+: область отбрасывания нулевой гипотезы;

-: доверительные границы нулевой гипотезы;

-: промежуточный интервал нулевой гипотезы;

-: полигон распределения нулевой гипотезы.

 

157. Число степеней свободы при вычислении χ2 обозначает:

+: общее число величин, по которым вычисляются соответствующие показатели, минус число тех условий, которые связывают эти величины;

-: объем выборочной совокупности минус 1;

-: общее число величин, по которым вычисляются соответствующие показатели, плюс число тех условий, которые связывают эти величины;

-: объем генеральной совокупности минус объем выборочной совокупности.

 

158. Поправка на непрерывность Йетса применяется при вычислении:

-: коэффициента регрессии;

-: приведении двухфакторного дисперсионного анализа;

+: вычислении χ2;

-: вычислении коэффициента корреляции.

 

159. Пуассоново распределение применяется к событиям обладающим:

-: очень большой вероятностью;

-: вероятность равной 0,5;

+: очень малой вероятностью.

 

160. Таблицами сопряженности называются таблицы в которых должно быть:

+: распределение вариант по 2 признакам, связь между которыми нужно установить;

-: распределение вариант строго в ранжированном виде;

-: распределение вариант по частоте встречаемости;

-: распределение вариант по значению коэффициента корреляции.

 

161. Наименьшая существенная разность в абсолютных цифрах выражается по формуле:

-: НСР05(01) = (t05(01) + Sd);

+: НСР05(01) = (t05(01) x Sd);

-: НСР05(01) = (t05(01) - Sd);

-: +: НСР05(01) = (t05(01) x Sd) x 100%.

 

162. Общее число наблюдений вычисляется по формуле:

+ N = e x n;

-: N = n - 1;

-: N = σ2 / ;

-: N = ∑fx / n.

 

163. Корректирующий фактор вычисляется по формуле:

+: С = (∑х2) / N;

-: С = (∑σ2) / N;

-: С = (∑t2) / N;

-: С = (∑Sх) / N.

 

164. Вероятность суммируется по формуле:

-: ∑p2 + ∑q2 = 1;

-: p2 + q2 = 1;

+: p + q = 1;

-: p2 + 2pq + q2 = 1.

 

165. На первом этапе дисперсионного анализа проводится:

-: суммирование всех значений вариант изучаемого признака;

-: определение коэффициента корреляции для каждого изучаемого признака;

+: разложение общей вариации изучаемого признака на варьирование вариантов, повторения и случайные отклонения;

-: вычисление суммы квадратов отклонений для вариантов и распределение на компоненты, соответствующие источником варьирования.

 

166. На втором этапе дисперсионного анализа проводится:

-: суммирование всех значений вариант изучаемого признака;

-: определение коэффициента корреляции для каждого изучаемого признака;

-: разложение общей вариации изучаемого признака на варьирование вариантов, повторения и случайные отклонения;

+: вычисление суммы квадратов отклонений для вариантов и распределение на компоненты, соответствующие источником варьирования.

 

167. Двумерное графическое изображение зависимости между двумя или несколькими переменными называется:

-: таблицей сопряженности;

+: кривой распределения;

-: корреляционной решеткой;

-: многопольной таблицей;

 

168. Переменная, значения которой не определяются экспериментатором называется:

+: независимая;

-: корреляционная;

-: дисперсионная;

-: зависимая.

 

169. Величину, которую можно измерить, контролировать и изменять в исследованиях называют:

-: коварианта;

-: градация;

-: дисперсия;

+: переменная.

 

170. Метод нахождения промежуточных значений некоторой величины по известному дискретному набору значений называется:

+: интерполяция;

-: дисперсия;

-: ковариация;

-: экстраполяция.

 

171. Метод, позволяющий определить приближенное значение функции в точках вне некоторого отрезка, по имеющимся значениям внутри этого отреза, т.е. позволяющий «продлить» функцию, называется:

-: интерполяция;

-: дисперсия;

-: ковариация;

+: экстраполяция.

 

172. Мера линейной зависимости двух величин называется:

-: интерполяция;

-: дисперсия;

+: ковариация;

-: экстраполяция.

 

173. Две группы, в одной из который имеется данный признак, а в другой он отсутствует является примером:

-: количественной вариации;

-: полигона распределения;

+: альтернативной вариации;

-: пуассонова распределения.

 

174. Вероятность вычисляется по формуле:

+:

-: p = ∑σ2 / n;

-: p = t x S ;

+: p = 1 – q.

 

175. Метод Ван-дер-Вардена позволяет вычислить одним из способов:

-: объем генеральной совокупности;

-: хи-квадрат;

+: среднюю ошибку доли;

-: регрессию.

 

176. Расчет необходимой численности выборочной совокупности при альтернативной вариации осуществляется по формуле:

+: n = t2 [p(1-p)/∆2];

-: n = 1 + N;

-: n = ∑fx / ;

-: n = (t2 x σ2)/ ∆2.

 

177. Расчет необходимой численности выборочной совокупности при количественной вариации осуществляется по формуле:

-: n = t2 [p(1-p)/∆2];

-: n = 1 + N;

-: n = ∑fx / ;

+: n = (t2 x σ2)/ ∆2.

 

178. Синонимом термина «критерий согласия» является:

-: коэффициент корреляции;

+: хи – квадрат;

-: дисперсионный анализ.

-: коэффициент регрессии;

 

179. В биологической статистике латинской буквой N обозначается:

-: вероятность;

+: объем генеральной совокупности;

-: средняя ошибка;

-: объем выборочной совокупности.

 

180. Фишером был разработан:

-: метод регрессионного анализа;

-: метод хи-квадрат;

+: метод дисперсионного анализа;

-: критерий соответствия.

 

181. Вероятность при Пуассоновом распределении вычисляется по формуле:

+: ;

-: p = 1 – q;

-: ;

-: p = λ + n.

 

182. При дисперсионном анализе к разным типам варьирования не относят:

+: варьирование общих средних ;

-: варьирование вариант xij внутри каждой группы вокруг каждой групповой средней i;

-: варьирование групповых средних i;

-: общее варьирование всех вариант xij, независимо от того, в какой группе они находятся, вокруг общей средней .

 

183. Распределение общей суммы квадратов на группы, включающие: эффект факторов А,В,с; взаимодействие факторов А и В, А и С, В и С, и А,В,С вместе, а также на случайные отклонения применяется при:

-: расчете χ2;

-: двухфакторном дисперсионном анализе;

-: определении коэффициента регрессии;

+: трехфакторном дисперсионном анализе.

 

184. Показателем вариационного ряда, которому соответствует доля при количественной вариации является:

-: коэффициент корреляции;

+: среднее арифметическое;

-: коэффициент регрессии;

-: объем выборки.

 

185. Ошибка для абсолютных численностей групп вычисляется по формуле:

+: Sp = ;

-: Sp = ;

-: Sp = ;

-: Sp = .

 

186. Возможные пределы, в которых находятся значение доли для генеральной совокупности Р определяемые по формуле p – tsp < P < p + tsp, называются:

-: промежуточными интервалами;

-: областью отбрасывания нулевой гипотезы;

-: экстраполяцией;

+: доверительными границами.

 

187. Средняя ошибка разницы между средними арифметическими 1 и 2 вычисляется по формуле:

+: Sd =

-: Sd =

-: Sd =

-: Sd =

 

188. По мере увеличения разницы между фактическими числами и ожидаемыми величинами χ2 будет:

-: уменьшаться пропорционально степени;

-: убывать;

-: не изменится;

+: возрастать.

 

189. По формуле вычисляется:

-: коэффициент корреляции;

-: средняя ошибка средней арифметической;

+: хи-квадрат;

-: ваианса.

 

190. Из перечисленных величин табличные значения имеют:

+: критерий Стьюдента;

-: коэффициент регрессии;

-: число степеней свободы;

+: хи-квадрат.

 

191. Среднее квадратическое отклонение выражается символом:

-: px;

-: N;

+: σ;

-: Sd.

 

192. Символами n-1 и df обозначаются:

-: коэффициент ассиметрии;

-: коварианта;

+: число степеней свободы;

-: объем выборки.

 

193. Вероятность появления события выражается символом:

+: p;

-: q;

-: n;

-: f.

 

194. Символом υ обозначается:

+: коэффициент вариации;

-: коэффициент корреляции;

-: коэффициент регрессии;

-: коэффициент ассиметрии.

 

195. Вероятность непоявления события выражается символом:

-: p;

+: q;

-: n;

-: f.

 

196. Средняя арифметическая для подгрупп внутри градаций по A и B при дисперсионном анализе выражается:

+: ij;

-: g;

-: n;

-: xi.

 

197. Уровень значимости обозначается символом:

-: N;

+: P;

-: T;

-: S.

 

198. Сумма квадратов отклонений обозначается символом:

-: fx;

-: df;

+: ss;

-: ms.

 

199. Частота классов обозначается символом:

-: xi;

+: f;

-: p;

-: Sd.

 

200. Варианса или средний квадрат при дисперсионном анализе обозначается:

+: ms;

-: fx;

-: df;

-: pq.

 

Зачетные вопросы.

1. Предмет и основные понятия биологической статистики. История биометрии.

2. Группировка данных, совокупность и вариационный ряд.

3. Совокупность, примеры различных совокупностей. Отличие выборочной совокупности от генеральной совокупности.

4. Принципы группировки данных при качественной дискретной и непрерывной изменчивости.

5. Вариационный ряд. Особенности распределения вариант в вариационном ряду. Графическое изображение вариационного ряда.

6. Статистические показатели для характеристики совокупности.

7. Размах вариационного ряда и лимиты. Мода и медиана.

8. Средняя арифметическая и ее свойства. Формулы для вычисления.

9. Варианса и среднее квадратическое отклонение.

10. Понятие степень свободы.

11. Средняя геометрическая. Формулы для ее вычисления.

12. Коэффициент вариации, его отличие от среднего квадратического отклонения.

13. Закономерности случайной вариации. Вероятность. Формулы для вычисления вероятности.

14. Нормальная вариационная кривая и ее характеристика. Нормированное отклонение.

15. Уровни значимости. Связь между уровнем значимости и вероятностью.

16. Доверительные вероятности или доверительный интервал.

17. Оценка достоверности статистических показателей. Выборочные и генеральные совокупности.

18. Средние ошибки, ошибки выборочности. Формулы вычисления.

19. Критерий Стьюдента, случаи и примеры его использования.

20. Нулевая гипотеза. Сущность нулевой гипотезы.

21. Формулы для определения необходимого объема выборочной совокупности. Охарактеризуйте основные предпосылки выборочного метода.

22. Измерение связи. Корреляция. Понятие о корреляции. Положительная и отрицательная корреляция.

23. Коэффициент корреляции. Формулы для его вычисления.

24. Выборочность коэффициента корреляции. Оценка его достоверности.

25. Понятие о регрессии. Односторонняя и двусторонняя регрессия.

26. Коэффициент регрессии. Ошибка коэффициента регрессии и его достоверность.

27. Статистический анализ вариации по качественным признакам.

28. Альтернативная вариация. Средняя арифметическая и среднее квадратическое отклонение при альтернативной вариации.

29. Средняя ошибка при альтернативной вариации. Доверительные границы для доли.

30. Дисперсионный анализ. Сущность дисперсионного анализа.

31. Общая схема дисперсионного анализа при однофакторном опыте.

32. Установление достоверности влияния изучаемого фактора. Фактические и табличные значения F.

33. Изучение степени соответствия фактических данных теоретически ожидаемым.

34. Критерий соответствия хи-квадрат. Формулы для его вычисления.

35. Закономерности распределения χ2. Понятие вероятности и значимости в применении χ2.

36. Фактические данные и нулевая гипотеза. Области отбрасывания нулевой гипотезы.

Date: 2015-09-18; view: 9785; Нарушение авторских прав; Помощь в написании работы --> СЮДА...



mydocx.ru - 2015-2024 year. (0.007 sec.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав - Пожаловаться на публикацию