блок emc что это

Основные понятия электромагнитной совместимости и практические рекомендации по проектированию печатных плат

Ralf Brüning, Zuken

Хотя нередко понятия EMC и EMI используются как синонимы, в действительности это не одно и то же. Электромагнитная совместимость (Electromagnetic Compatibility, EMC) – это управление излучаемыми и кондуктивными электромагнитными помехами (Electromagnetic Interference, EMI). Плохая EMC является одной из основных причин, вынуждающих повторно начинать проектирование печатной платы. На самом деле, по оценкам, 50% первоначальных проектов печатных плат оказываются неудачными из-за того, что излучают нежелательные электромагнитные помехи и/или восприимчивы к ним.

Но такая статистика неудач характерна не для всех областей. Наиболее вероятно это в секторах, зарегламентированных строгими правилами, таких как медицина и авиационно-космическая промышленность, или же там, где разрабатываемое устройство должно присоединиться к линейке продуктов, которая исторически создавалась с учетом EMC. Разработчики мобильных телефонов, например, от А до Я изучили проблемы беспроводной связи и прекрасно разбираются в минимизации риска нежелательных излучений.

Наибольшее беспокойство проблемы EMC доставляют разработчикам печатных плат, предназначенных для бытовой техники, такой как тостеры, холодильники и стиральные машины, которые объединяют множество устройств, поддерживающих подключение к Интернету вещей по беспроводной сети. При больших объемах производства перепроектирование печатной платы может привести к задержке выпуска продукта. Хуже того, отзыв продукта может нанести серьезный ущерб репутации и финансам компании.

Откуда приходит шум?

Выпущено множество руководств по соблюдению норм EMC при проектировании печатных плат, и, кроме того, у многих компаний есть собственные правила проектирования плат и выполнения требований EMC. Кроме того, инструкции могут поступать из внешних источников, таких как директивные органы, поставщики комплектующих и клиенты. Однако буквальное исполнение всех инструкций и требований может сделать защитную стратегию EMC чрезмерной и стать причиной задержки проекта. Правила должны оцениваться индивидуально, чтобы определить, применимы ли они к текущему проекту или нет.

Тем не менее, базовые правила, основанные на здравом смысле, будут применяться всегда. Например, чтобы подавить источники шума на печатной плате, необходимо:

Хотя вышеперечисленные меры помогут смягчить некоторые из наиболее распространенных проблем, связанных с электромагнитными помехами, каждая печатная плата, на которую подано питание, в любом случае будет излучать электромагнитную энергию. Это связано с тем, что каждый ток создает магнитное поле, а каждый заряд создает электрическое поле. Суммарное излучение будет представлять собой сумму излучений дифференциальной сигнальной петли, синфазной помехи (обусловленной как напряжением, так и током) и излучения, создаваемого системой распределения питания.

Рассмотрим их более подробно

Дифференциальное излучение обусловлено петлями линий передачи и сигналами, создающими дифференциальные токи IDM (Рисунок 1). В перечень контрмер входят использование экранирующих слоев (питания или земли), размещение критических сигнальных линий во внутренних слоях (известное так же как формирование полосковых линий – striplining), исключение длинных сигнальных проводников и упоминавшиеся выше минимизация петель схемы и ограничение времен нарастания и спада сигналов на минимально возможных уровнях.

Рисунок 1. Дифференциальное излучение.

Более критической технологической частью проекта часто бывает синфазное излучение, поскольку электромагнитной излучение (EMI) лучше «видно» в дальней зоне поля. Оно создается паразитными токами, такими как токи переключения или токи, обусловленные индуктивными связями проводников (Рисунок 2), а также паразитными напряжениями, возникающими, например, из-за перекрестного взаимодействия активных сигналов ввода-вывода. Контрмеры включают в себя исключение источников этих паразитных токов и напряжений. Это означает, что необходимо избегать взаимных связей между быстрыми сигналами и более продуманно размещать компоненты и выполнять трассировку печатной платы.

Рисунок 2. Синфазное излучение.

Что касается излучения системы распределения питания, то оно возникает из-за того, что печатная плата по существу является LCR резонатором, содержащим индуктивные элементы (печатные проводники), емкости (плоскости слоев заземления и питания подобны конденсаторам) и сопротивления. Для ослабления электромагнитных излучений этого вида требуется снижать импеданс платы, исключать индуктивности и обеспечивать достаточную развязку.

Кроме того, интегральные микросхемы также являются источниками помех, и будут вносить свой вклад в электромагнитный профиль печатной платы. Об этом не следует забывать при выборе микросхем, а производители чипов должны быть в состоянии предоставить вам информацию об электромагнитном поведении их компонентов.

Средства моделирования и проверки правил проектирования

В составе многих САПР печатных плат имеются средства проверки критериев EMC. В перечень проверок входят изучение геометрических параметров печатной платы для случаев, когда могут возникать перекрестные помехи (например, из-за параллельно разведенных трасс), областей с недостаточным или отсутствующим экранированием и мест, где может потребоваться развязка.

Эти правила объединяют опыт и знания многих инженеров, работающих в области EMC. Однако важно знать их первоисточник и то, как они были реализованы поставщиком САПР. Вы вправе попросить его ознакомить вас с набором этих правил. Кроме того, у вас должна иметься возможность указывать программе свои приоритеты, чтобы выделять те области печатной платы, где подавление электромагнитных помех и целостность EMC имеют критическое значение.

Но давайте не будем забывать, что все эти проверки выполняются уже после разводки платы. Поэтому всегда лучше сразу разрабатывать печатную плату с учетом факторов EMC и EMI, а не действовать методом проб и ошибок. Иначе от поделанной работы может быть мало пользы, особенно в том случае, когда требуемые уровни электромагнитных излучений уже заранее указаны в техническом задании.

Читайте также:  какие физические нагрузки влияют на кровеносные сосуды

Для более продвинутого анализа требуется моделирование. Как и в случае с программами проверки проектных норм EMC, содержательность и, следовательно, ценность результатов будут зависеть от того, насколько хорошо цифровое представление соответствует реальной плате и ее поведению, и, конечно же, от того, насколько хороши различные уравнения, положенные в основу программных алгоритмов анализа электромагнитных излучений. Опять же, у поставщиков САПР должна быть возможность предоставлять соответствующую информацию. Также нужно сделать несколько образцовых измерений для проверки методологии моделирования и обработать их, чтобы затем использовать как основу для интерпретации будущих результатов.

На рынке существует множество цифровых 3D симуляторов электромагнитных помех, некоторые из которых предназначены для специальных целей, например, для проектирования антенн. Они хорошо подходят для анализа возможных вариантов и оптимизации структур, могут моделировать все эффекты EMI для определенной структуры, но требуют значительных вычислительных ресурсов (памяти и процессорного времени) и, как правило, очень дороги. Кроме того, для интерпретации результатов моделирования требуется глубокое понимание EMI, поскольку иногда бывает очень сложно, используя только результаты 3D моделирования, объяснить, например, причины возникновения конкретного пика излучения.

Однако для тех типов печатных плат, которые используются в бытовой технике, мы не стремимся оптимизировать антенные структуры или создавать конкретные профили радиочастот. Мы просто хотим удостовериться, что проект печатной платы демонстрирует хорошую EMC; поэтому нам хватит САПР печатных плат с достаточным набором правил проверки ошибок EMC.

Проектирование плат без EMI

Хотя идеального решения проблемы EMC не существует, хорошо организованная работа над проектом должна включать в себя выявление паразитных антенн EMI, таких как электрические и магнитные диполи. Кроме того, нужно определять пути прохождения токов, поскольку токи протекают по замкнутой цепи и всегда будут искать пути с наименьшим сопротивлением. Соответственно, необходимо планировать правильные пути возврата токов (отметим, что у инженеров в области EMC «земля» не является признанным техническим термином) и избегать пересечений и разветвлений (даже для дифференциальных пар), а также разрывов путей возврата (Рисунок 3).

Рисунок 3. На верхнем рисунке опорным слоем для части трассы сигнала
(т.е., слоем с нулевым потенциалом переменного тока) попеременно
служат то слой земли, то питания. Это создает антенну EMI.
Трассировка сигнала в пределах одного опорного слоя (нижний рисунок)
позволяет исключить или, как минимум, сократить разрывы путей
возврата тока.

Подводя итог, скажем, что всегда лучше сразу же проектировать плату с учетом EMC, нежели идти на риск повторного проектирования, однако необходимо четко понимать, какие правила EMC, и как будут применены к вашему проекту. Кроме того, возможность анализа с помощью инструментов, встроенных в САПР печатных плат, может значительно снизить риск нарушения норм EMC после изготовления платы; но убедитесь, что средства проверки правил проектирования основаны на хорошо документированных и проверенных принципах и толкованиях EMC. И никогда не моделируйте, если а) вы не доверяете симулятору, и б) вы не чувствуете заранее, какими будут результаты.

Перевод: Vadim по заказу РадиоЛоцман

Источник

Как из хорошей железки сделали отличную — обзор новых систем хранения данных EMC VNX

Системы хранения данных ЕМС — это как хорошая немецкая машина. Знаешь, что немного переплачиваешь за бренд, но безопасность данных и чуткость управления обеспечены. И сервис: премиальная гарантия, например, доставка запчастей в течение 4 часов с выездом инженера в случае необходимости.

Относительно недавно вышла новая линейка оборудования, флагман которой позволяет поставить до 1500 дисков — итого на 6 ПБ. Ниже её обзор с кратким ликбезом про СХД в принципе. И рассказ о том, как реально хорошие вещи сделали ещё лучше.

Сразу

Знаю, что сразу спросите по стоимости. Она высокая. Заплатить нужно не меньше тридцати тысяч долларов. За эти деньги дают полностью отказоустойчивую конфигурацию с мощным функционалом, трёхлетней поддержкой и обновленным софтом, о котором пойдет речь ниже. То есть система далеко не домашняя и даже не для малого бизнеса.

Зачем нужны СХД гибридного типа?

Сначала немного истории. Многоуровневое хранение – это сочетание быстрых и дешевых, но ёмких дисков в одном массиве данных. Существовала возможность такого комбинирования еще тогда, когда о flash-дисках мы только мечтали ввиду их космической стоимости. Так вот, существует миф, что эту фишку придумали для улучшения производительности. А вот и нет! Изначально такое хранение использовалось для экономии: положим данные, которые не используются на медленные и дешевые диски. Значит быстрых понадобится меньше – только для «горячих» данных.

Затем SSD плотно вошли в нашу жизнь. Логично было добавить в наш «суп» из быстрых и медленных дисков немного приправы из SSD. Самые быстрые и «горячие» данные, всего 5-10 процентов от всего объема, теперь попадали на них. Обновленные СХД VNX– это уже третье поколение гибридных массивов, в котором они, на мой взгляд, преуспели на славу.

Итак, с одной стороны у нас есть решения, целиком состоящие из вычислительных и flash-модулей. Они работают с горячими данными со скоростью скорее близкой к DRAM, чем к классическим HDD, но при этом такие системы очень дорого обходятся при пересчете стоимости гигабайта хранимых данных. Как правило, их используют там, где нужно постоянно «перемалывать» 10-20 терабайт с большой скоростью. Пример – высоконагруженные СУБД, VDI. С другой стороны, системы на классических механических дисках не позволяют работать с данными настолько быстро, но дают возможность хранить их очень много (стоимость за хранимый гигабайт может быть на порядок ниже).

Читайте также:  Что такое однозначные слова и многозначные слова 1 класс

Однако в большинстве случаев нужно одновременно и иметь большой объём хранилища, и быстро предоставлять доступ к «горячим» данным. Примером могут служить типичные задачи для СХД, когда надо хранить какую-нибудь СУБД одновременно с томами под виртуализацию, почтой, архивами и т.д… В этих случаях используются либо связки Flash-СХД + классическая СХД, либо СХД смешанного (гибридного) типа. Мы сегодня говорим как раз о последних – поддерживающих в одной системе как flash-накопители, так и классические диски.

Итак, система прошлого поколения уже была очень хороша. Сама умела работать с flash-модулями и умела вообще всё, что нужно для работы с высоконагруженными приложениями. В целом, могло показаться, что сделать что-то лучше довольно сложно, и дальнейшее увеличение производительности возможно только за счет железа. Но нет, разработчикам удалось, внеся серьёзные изменения в софтверную часть платформы, добиться просто огромного выигрыша в производительности.

Новое поколение


Вот эти штуки.

Первое – новый EMC рассчитан на большие объёмы. Флагман позволяет поставить до 1500 дисков. Одному из наших клиентов, кстати, эти 6 ПБ могут пригодиться, благо данных там довольно много – но на практике пока внедрений больше 2ПБ не было.

Всё работает быстрее. Стало больше кэша, X-BLADE (файловые сервера) теперь более оптимизированы. Да-да, не забываем, что доступ к этой СХД может быть как блочный (FC, iSCSI, FCoE), так и файловый (CIFS, NFS).

Добавилась новая блочная дедупликация. Про неё и другие софтверные детали ниже.

Обновилась аппаратная составляющая. Блочные контроллеры теперь умеют работать с полной SSD-конфигурацией и поддерживают до 32 ядер.


Архитектура блочных контроллеров

Железо

Появился новый аппаратный конструктив контроллера — всё кроме флагмана использует новую платформу DPE. Из крупных изменений – другой модуль резервного питания. Батареи отказоустойчивого питания встроены в контроллер для всех моделей кроме флагмана. В старшей модели по-прежнему есть батареи, но их теперь не 2, а 4 штуки и заменяются они теперь на порядок удобнее.

Компоновка контроллеров и полок всё такая же, как и раньше (VNX8000 – исключение):

Взгляните на диски:

Теперь флеш-диски деляется на две категории: сверхбыстрые (eMLC) используется для кэша и уровневого хранения, обычные (просто MLC) – только для уровневого хранения.

Базовый функционал софта «из коробки» теперь тоже больше, но это, в целом, было ожидаемо.

Что интересно – появились новые программные фишки. Например, очень порадовал новый подход к выделению ресурсов процессора. Раньше процесс получал определённое количество ядер и работал только на них. То есть при неравных загрузках тех или иных процессов (достаточно частых для реальных систем) имела место неравномерная нагрузка на ядра. Где-то ядро могло простаивать, а где-то загрузка была близка к 100%. В новой архитектуре сделан шаг к большей виртуализации — динамическое деление ресурсов и многопоточная обработка.

Полностью переработан кэш. Раньше память делилась на 2 области: кэш на запись и кэш на чтение. Эти два буфера не пересекались. Соответственно, один делал оптимизацию записи данных на диск оптимальными блоками, а второй предсказывал чтение следующих блоков. Так вот, на новых массивах работа кэша полностью реорганизована, массивы теперь используют динамический кэш, отвечающий за обе задачи одновременно без разделения памяти на разные области. Такой подход не только позволил более эффективно использовать место в памяти, но и резко повысил производительность. На типовых нагрузках со слов производителя это очень волшебно повышает быстродействие кэша до 5 раз.

Переработан Fast Caсhe – это flash-диски, используемые как дополнительный кэш. Ему теперь отдаётся больше ресурсов процессора из-за динамического распределения ресурсов. Плюс под Fast Cache теперь отдаются более быстрые eMLC диски. В итоге разработчики смогли использовать более агрессивные алгоритмы, что делает разогрев кэша куда более быстрым. Заодно инженеры вместе с разработчиками алгоритмов классического кэша прошлись по драйверам и переписали их под модульный принцип, что также здорово подняло производительность и в разы понизило время отклика отдельного обращения.

Fully Automated Storage Tiering Virtual Pool (FAST VP). Это как раз тот самый механизм объединения различных дисков в единый «пул». Его тоже значительно переработали и теснее интегрировали с FAST cache. Кстати, гранулярность Fast VP уменьшена в 4 раза и теперь данные перемещаются кусками по 256 МБ.

Вот здесь, наверное, актуально будет вернуться к началу, где я говорил, что смешивание дисков не приводит к увеличению производительности. Вот теперь, когда мы получили возможность использовать SSD для хранения и как кэш, — можно говорить и о скорости, и об эффективности хранения и обработки данных.

Читайте также:  uan что это за валюта

Новая блочная дедупликация. Принцип старый как мир: данные бьются на блоки, одинаковые блоки хранятся один раз. Для дублирующихся блоков используются ссылки на те же блоки как в архивах. Теперь всё это очень сильно «заточено» под виртуальные среды.

Расчетная экономия для подобных нагрузок составит:

Новый принцип работы с дисками. ЕМС также сменило принцип работы с дисками. Ранее адрес диска жестко привязывался к его физическому расположению в полке, в новом поколении система запоминает диски по их уникальным идентификаторам, что дает возможность не привязываться больше к расположению дисков в системе. Вроде бы несущественное изменение, однако, насколько теперь упростится переезд массива на другую площадку! Ведь теперь можно не мучиться с расположением дисков в том же порядке что и раньше. И проблему несбалансированной нагрузки на back-end решить можно просто на порядки проще и быстрей: переставил диски по очереди – и готово, даже базу гасить не нужно. Да и теперь при необходимости часть данных можно просто физически выдернуть из массива и увести на время на другую площадку, такой своеобразный хот-бэкап получается, сами думаю, придумаете, зачем он может понадобиться.

Добавленая технология Permanent Sparing хорошо зарекомендовавшая себя на Hi-end системах. Помимо этого теперь не нужно выделять специальные диски под горячую замену, массив будет использовать по умолчанию максимально подходящий не занятый диск.

Есть важные изменения в принципе доступа контроллера к дискам. Изначально в mid-range системах с дисками работал один контроллер, а пути доступа других контроллеров использовались только при сбоях. При сбое том переезжал на другой контроллер. Это означало, что если какой-то массив требует полных ресурсов системы, получить он сможет даже теоретически не более 50% общих ресурсов системы — от одного контроллера. Эта проблема была частично решена в 2 прошлых линейках: появился механизм ALUA. Суть механизма: передача запросов хостов контроллеру владельцу тома через интерфейс синхронизации кэша. К сожалению, пропускная способность этого интерфейса далеко не безгранична и обращение к контроллеру владельцу тома все-равно обрабатывается быстрее. Пути стали делиться на оптимальные и неоптимальные вместо активных и пассивных. Грубо говоря, в идеальном случае — до 75% мощности массива на том. В новом поколении разработчики пошли дальше. Без изменения аппаратной структуры(!) они поменяли логику работы массива на Active-Active. Теперь оба контроллера одновременно параллельно пишут в разные области, просто блокируя свою область на время записи.

На практике, если у нас массив используется под одну задачу — можно использовать более дешевую младшую модель СХД. Да и балансировка нагрузки на путях становится куда проще. Плюс раньше при процедуре переезда LUN под управление другого контроллера были серьезные задержки в обработке внешних обращений ввода-вывода, а сейчас не будет ни того ни того.

Обновился софт для массива. Внешне интерфейс работы с массивом изменился не сильно. По моей субъективной оценке, это как был, так и остался (к счастью) самый удобный интерфейс для СХД — 99% задач делается парой кликов прямо в веб-интерфейсе. Экзотика, конечно, требует консоли.

В базовом комплекте теперь идёт ещё очень полезный новый инструмент долговременного мониторинга. Можно видеть отчёты по файловой и блочной части — куча метрик. Позволяет легко находить узкие места. Ещё один инструмент на основе этих метрик позволяет планировать расширение инфраструктуры – это чтобы администратор не считал руками, чего и сколько потребуется в следующем году.

Ещё одна очень важная вещь для виртуальных сред. Массивы по-прежнему поддерживают плотную интеграцию с системами виртуализации. Если кто не знает, VMware — это подразделение EMC (довольно самостоятельное, но подразделение). Отсюда – совместная работа программистов VMware и разработчиков СХД. Следствие — удобная бесшовная и крайне глубокая интеграция. Виртуальные машины интегрируются в интерфейс СХД (мониторинг ресурсов машин на уровне СХД), типичные нагрузки по копированию и клонированию машин можно переложить на сам массив, типовые задачи по администрированию СХД можно делать из интерфейса инфраструктуры VMware.

Как это ни странно, но аналогичные плюсы есть и для Hyper-V (поскольку EMС тесно и очень давно сотрудничает с MS — исторически сложилась работа разработчиков вместе). Почти такой же уровень глубины интеграции: общее управление, разгрузка инфраструктуры. Есть и специальные фишки для MS – например, Branch Caсhe при слабых каналах связи разгружает сетевую инфраструктуру. Да! EMC VNX – первая СХД c поддержкой SMB 3.0.

Пока всё. Вопросы можно задавать в комментарии или на почту VBolotnov@croc.ru. По стоимости под конкретные задачи могу сориентировать довольно быстро с конкретными расчётами – если нужно, запрашивайте, не проблема.

Да. Мы свою демо-систему VNX5400 в руках уже покрутили и отдали на тестирование одному из заказчиков, который планирует обновление своих СХД в этом году. В скором времени она вернется, поэтому если кому интересно пощупать реальную систему самостоятельно, можно будет приехать к нам в офис и заглянуть в EMC Solution Center. Пишите, договоримся о дате.

UPD: Если что, у нас есть программа замены ленточных и дисковых библиотек на новые EMC.

Источник

Информ портал о технике и не только