Вопросы по аттестациям Информатика 2

1-ый этап =
1. Обобщенная структура системы передачи информации.
2. Информация. Формы адекватности информации: синтаксическая, семантическая, прагматическая.
3. Показатели качества информации: репрезентативность, содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость.
4. Системы классификации информации: иерархическая, фасетная, дескрипторная.
5. Понятие о кодировании. Характеристики кодирования. Классификационное и регистрационное кодирование.
6. Данные и знания. Экстенсионал и интенсионал понятия.
7. Сообщения, коды, шифры, знаки, символы.
8. Коды постоянной и переменной длины. Префиксные коды.
-----------------------------------

2-ой этап =

1. Избыточность и сжатие. Расширения кода. Энтропия. Теорема кодирования для каналов связи без шума.
2. Измерение количества информации. Вероятностный, комбинаторный и алгоритмический подходы к измерению количества информации.
3. Методы обнаружения и коррекции ошибок в дискретных кодах. Корректирующие коды. Расстояние Хэмминга и его соотношение с корректирующей способностью кода.Аналоговый, дискретный, квантованный и цифровой сигналы.
4. Этапы аналого-цифрового преобразования.
5. Частотное и временное представление сигналов их смысл и применение. Понятие спектра сигнала.
6. Теорема отсчетов Котельникова-Найквиста. Ее практическое значение для цифро-аналоговых преобразований.
7. Интервал дискретизации и шаг квантования. На что влияет их выбор?
8. ИКМ, ДИКМ, АДИКМ, дельта-модуляция.
9. Пропускная способность канала и ее измерение. Теорема Шеннона для канала связи с шумом.
10. Способы обмена данными: прямая, косвенная, коммутируемая, широковещательная, групповая, с промежуточным хранением. Их особенности.
11. Временное и частотное мультиплексирование.
12. Каналы восприятия информации человеком. Органы чувств и способы передачи информации.
13. Закон Фехнера и его интерпретация. Порог восприятия.
14. Закон Вебера. Расчет количества различимых уровней интенсивности раздражителей. Разрешающая способность рецептора.
15. Измерение громкости, единицы измерения громкости.
16. Особенности зрительного восприятия. Источники избыточности изображений и способы устранения избыточности.
17. Сжатие без потерь и сжатие с потерями.
18. Сруктура алгоритма JPEG.
19. Особенности слухового восприятия. Источники избыточности в звуковых сигналах и способы устранения избыточности.
20. Психоакустическое маскирование и его практическое использования в алгоритмах сжатия звуковых сигналов.
21. Обработка сообщений и информации. Классификация видов обработки информации.

----------------------------------

3-ий этап =

Часть 1.

1. Машинное представление числовых данных в ЭВМ. Машинное прдеставление целых чисел. Представление чисел со знаком. Двоично-дополнительный код. Проблема представления целых чисел (арифметическое переполнение) и ее решение. Машинное представление вещественных чисел. Мантисса и порядок. Машинная точность. Верные цифры.
2. Кодирование информации в ЭВМ. Эффективность кодирования. Энтропия. Избыточность. Оптимальное кодирование. Префиксные коды. Первая теорема Шеннона. Аналого-цифровое преобразование. Теорема Котельникова-Найквиста.
3. Передача и восприятие информации. Структура системы передачи информации. Классификация видов сигналов. Сущность временного и спектрального представления сигнала. Вторая теорема Шеннона. Сравнение задач оптимального кодирования, шифрации и помехоустойчивого кодирования с точки зрения роли избыточности. Идея помехоустойчивого кодирования. Расстояние Хэмминга. Особенности зрительного и слухового восприятия информации, источники избыточности и пути ее устранения.

Часть 2.

1. Обработка сообщений и информации. Классификация видов обработки информации. Алгоритм. Характеристики алгоритма и структура алгоритмического процесса. Сходимость алгоритма. Обобщенные модели алгоритма: частично-рекурсивная функция, машина Тьюринга, нормальный алгорифм Маркова. Тезисы Черча и Тьюринга, принцип нормализации Маркова. Эквивалентность тезисов Черча и Тьюринга.
2. Введение в алгоритмическую сложность. Эффективность алгоритма. Массовая и индивидуальная задача. Входная длина описания алгоритма. Временная сложность алгоритма. Полиномиальные и экспоненциальные алгоритмы. P, NP и NP полные проблемы. Полиномиальная сводимость.
3. Односторонние функции и криптосистемы с открытым ключом. Примеры криптографических протоколов.
4. Системы искусственного интеллекта (ИИ). Тест Тьюринга. Методы моделирования ИИ. Подходы к реализации ИИ.