Управление сложными системами (введение в основы автоматики и информатики)
книга

Управление сложными системами (введение в основы автоматики и информатики)

Автор: Инна Марусева, Юрий Петров

Форматы: PDF

Издательство: Директ-Медиа

Год: 2018

Место издания: Москва|Берлин

ISBN: 978-5-4475-9777-1

Страниц: 182

Артикул: 20572

Возрастная маркировка: 16+

Печатная книга
917
Ожидаемая дата отгрузки печатного
экземпляра: 11.04.2024
Электронная книга
254.8

Краткая аннотация книги "Управление сложными системами (введение в основы автоматики и информатики)"

В первой части учебного пособия описаны понятия информации, энтропии, количества информации и т. д., даны элементы теории передачи информации и кодирования. Во второй части раскрыты основные понятия теории систем автоматического регулирования, такие, как объект управления, программное управление и управление с обратной связью, регулятор. Уделено внимание проблемам обеспечения устойчивости и качества регулирования, синтеза практически работоспособных систем. Ряд вопросов освещается на основе корреляционного анализа с привлечением понятий корреляционной функции, спектральной плотности, среднего квадрата сигнала. Предназначено для студентов университетов, технических вузов, педагогических институтов, а также инженеров и аспирантов, работающих в области автоматики, информатики и систем управления. Библиогр. 47 назв. Ил. 37. Второе издание. Первое издание книги – г. Москва, издательство «Прометей» (1991 г.).

Содержание книги "Управление сложными системами (введение в основы автоматики и информатики)"


Предисловие
Глава 1. Информация
§ 1. Примеры устройств информатики и автоматики
1.1. Телеграфный аппарат
1.2. Радиоприемник
1.3. Система управления с обратной связью
§ 2. Измерение количества информации в теории связи
§ 3. Определение понятия «информация»
§ 4. Целевая информация. Смысловая информация
§ 5. Энтропия распределения вероятностей и энтропия в физике
§ 6. Является ли энтропия мерой неупорядоченности
§ 7. Является ли энтропия распределения вероятностей универсальной характеристикой неопределенности
Глава 2. Управление
§ 1. Управление и информация
§ 2. Уравнения систем регулирования
§ 3. Разомкнутые системы. Их устойчивость
§ 4. Замкнутые системы
§ 5. Системы слежения
§ 6. Синтез систем управления с заданным расположением корней характеристического полинома
§ 7. Вариационные методы
§ 8. Случайные процессы и их характеристики
§ 9. Корреляционная функция
§ 10. Спектральная плотность мощности
§ 11. Критерии качества управления
§ 12. Метод синтеза оптимального регулятора, основанный на выделении устойчивого подсемейства экстремалей
§ 13. Второй метод синтеза оптимального регулятора
§ 14. Синтез оптимальных регуляторов при учете ошибок измерительных приборов
§ 15. Переходные процессы в оптимальных системах управления
Заключение
Литература

Все отзывы о книге Управление сложными системами (введение в основы автоматики и информатики)

Чтобы оставить отзыв, зарегистрируйтесь или войдите

Отрывок из книги Управление сложными системами (введение в основы автоматики и информатики)

12 Возникает вопрос, по какому основанию брать логарифмы в формуле (1)? Поскольку простейшим возможным алфавитом явля-ется алфавит, состоящий из двух символов, то удобно выбрать ло-гарифмы по основанию два, двоичные логарифмы. Тогда в про-стейшем сообщении из одного символа будет заключаться одна единица информации, поскольку log221 = 1. Эту единицу информа-ции предложили назвать «битом». Теперь легко подсчитать, что в последовательности из десяти точек и тире содержится log2210 = log2 1024 = 10 битов информации, в последовательности из трех десятичных цифр содержится log2 1000 = 9,97 битов, в последова-тельности из четырех русских букв содержится log2 324 = 20 битов информации. Логарифмическая мера была введена Хартли потому, что труд-ность передачи сообщения пропорциональна не самому разнообра-зию возможных сообщений, а их логарифму. Так, передать теле-грамму из десяти букв примерно в два раза труднее, чем из пяти букв. Этим и объясняется логарифмическая мера. К мере информации, введенной Хартли, можно подойти и не-сколько по-другому. Если число всех возможных сообщений равно N, то вероятность того, что будет принято именно данное сообще-ние, равна 1/N. Определим количество информации как величину логарифма вероятности сообщения с обратным знаком, т. е. I = – log 1/N (2) Поскольку – log 1/N = logN, то новое определение полностью тождественно с предыдущим. Мера количества информации, введенная Хартли в 1928 г., бы-ла полезна: она позволила сравнивать между собой сообщения раз-личной длины, передаваемые различными алфавитами. Однако определение Хартли пригодно только тогда, когда все символы, встречающиеся в передаче, встречаются в ней одинаково часто, имеют одинаковую вероятность появления. Но при передаче на любых реальных языках это условие не выполняется. Так, в русском языке буквы е, а, о встречаются много чаще, чем ф, э, ш. В английском языке буквы s, t, е встречаются мно...