Использование маршрутизаторов CISCO в сетях Novell NetwareРефераты >> Программирование и компьютеры >> Использование маршрутизаторов CISCO в сетях Novell Netware
Протокол NHRP (Next Hop Resolution Protocol)
Протокол NHRP позволяет маршрутизаторам и серверам доступа динамически определять адреса уровня 2, соответствующие другим устройствам в облаке WAN. ПО Cisco IOS в настоящее время поддерживает протокол NHRP на соединениях IPX-over-ATM, SDMS и туннелях GRE.
В частично соединенных, нешироковещательных сетях с множественным доступом, таких как ATM и SDMS, множественные логические сети, организованные в облаке WAN, нуждаются в организации полного сетевого взаимодействия между собой. В таких сетевых конфигурациях пакеты могут проходить через большое число промежуточных устройств до тех пор, пока не достигнут своего назначения, а именно того маршрутизатора, который является ближайшим к сети назначения пакета.
Используя протокол NHRP, маршрутизаторы и серверы доступа получают возможность динамически узнавать адреса уровня 2 узлов, находящихся в разных частях сети. Маршрутизаторы и серверы доступа могут выбирать наиболее прямой путь следования пакетов данных в большой сети, исключая таким образом наличие ненужных промежуточных узлов на маршруте. Протокол NHRP облегчает путь перехода к распределенным коммутируемым сетям WAN и исключает необходимость во многих ручных процедурах конфигурирования устройств.
Производительность
Необходимость поддержки пиковой производительности в распределенных сетях вызвало определенные усилия разработчиков сетей в этой области. Cisco Systems предоставляет набор дополнительных функциональных возможностей аппаратного и программного обеспечения для достижения этой цели.
Быстрая коммутация (Fast Switching)
Cisco Systems внедряет высокопроизводительную аппаратуру коммутации для любого трафика, так или иначе связанного с ОС Netware. Технология Fast Switching позволяет значительно повысить скорость коммутации пакетов и снизить уровень задержек, вызываемых активным сетевым оборудованием.
Разделение нагрузки (Load Sharing)
Возможность разделения нагрузки особенно важна для сетей, передающих данные, критичные к уровню задержек. При разделении нагрузки суммарная пропускная способность сети используется более эффективно, снижается уровень задержек и возрастает скорость реакции на запросы.
Маршрутизаторы Cisco могут прозрачно использовать несколько путей следования данных между двумя узлами сети, что обеспечивает разделение нагрузки на линиях связи между двумя маршрутизаторами и узлами сети. Cisco IOS обеспечивает два подхода для организации разделения нагрузки между путями следования данных, имеющих одинаковую административную стоимость.
На рис. 10 показан пример разделения нагрузки между несколькими линиями связи.
Рис. 10. Разделение нагрузки между несколькими линиями связи
Два маршрутизатора соединены между собой двумя высокоскоростными выделенными линиями, что позволяет им разделять нагрузку, передавая пакеты сразу по обеим линиям связи. Если одно из соединений будет нарушено, то весь объем трафика автоматически переключится на оставшееся соединение. Таким образом, кроме более эффективного использования полосы пропускания, разделение нагрузки способствует лучшей отказоустойчивости сети.
На рис. 11 показано разделение нагрузки между несколькими путями следования трафика.
Рис. 11. Разделение нагрузки между несколькими путями следования трафика
Одним из возможных применений такого подхода к разделению нагрузки может служить использование алгоритма “round-robin”, при котором передача каждого следующего пакета производится по альтернативному пути, имеющему такую же административную стоимость. При этом такая передача пакетов совершенно прозрачно с точки зрения конечных узлов сети. Эта конфигурация позволяет эффективно использовать суммарную пропускную способность сети и снизить уровень задержек при передаче пакетов.
В некоторых случаях линии связи в распределенных сетях имеют сильно не одинаковые значения пропускной способности. В связи с этим традиционный подход к разделению нагрузки может привести к тому, что пакеты будут получены узлом назначения не в том порядке, в каком они были отправлены узлом-источником. В сетях IPX пакеты, полученные не в том порядке, обязательно должны быть переданы заново, что приводит к увеличению задержек при обработке запросов приложений и к увеличению суммарного трафика сети.
Для решения этой проблемы Cisco IOS предлагает механизм балансирования нагрузки по методу per-host для протокола IPX. При таком балансировании нагрузки последовательно передаваемые пакеты (или поток трафика), предназначенные для данного узла назначения, передаются по одному пути, даже если имеется альтернативный путь. Так как этот метод балансирования нагрузки посылает все пакеты, предназначенные данному узлу, по одному пути, то это гарантирует, что порядок следования пакетов не будет нарушен. Соблюдение очередности передачи пакетов значительно уменьшает количество повторных передач и, как следствие, сокращает вероятность возникновения перегрузок сети.
Балансирование нагрузки по методу per-host не гарантирует оптимально эффективное использование всех имеющихся в наличии соединений. Однако, использование разных путей для разных конечных узлов, находящихся в одном месте, позволяет достичь тех же преимуществ традиционного подхода к разделению нагрузки в плане эффективности использования соединений и повышения отказоустойчивости.
Система очередей и приоритетов трафика
Программное обеспечение Cisco IOS обеспечивает несколько методов для создания очередей для трафика IPX. Системы очередей позволяют гарантировать уровень сервиса путем создания приоритетов трафика и резервирования полосы пропускания.
Одним из методов организации очередей является приоритетная очередность (priority queuing). Этот метод основан на адресе узла IPX, сетевом адресе и идентификаторе сервиса (также называемом типом пакета или socket). Приоритетная очередность обеспечивает своевременную доставку пакетов специфического протокола или типа трафика, потому что трафик имеющий больший приоритет всегда передается в первую очередь, даже если для этого необходимо пожертвовать другим типом трафика. Приоритетная очередность используется для того, чтобы обеспечить гарантированную передачу некоторых типов трафика или всего трафика от некоторых систем, входящих в состав сети.
Другим методом организации очередей является так называемый custom queuing, который обеспечивает передачу трафика путем присвоения различных размеров очередей для разных типов сетевого трафика, причем эти очереди обслуживаются по методу round-robin. При использовании custom queuing каждому типу протокола, пользователю или приложению может быть присвоена своя особенная глубина очереди, однако ни один из типов трафика не сможет монополизировать всю доступную пропускную способность соединений. Метод custom queuing обычно применяется в тех случаях, когда необходимо обеспечить определенному типу трафика гарантированную полосу пропускания.