Dlaczego EMC nie może być „ostatnim krokiem”. O ryzykach projektowych w elektronice obronnej
W wielu projektach kompatybilność elektromagnetyczna wciąż pozostaje etapem końcowej weryfikacji. W praktyce takie podejście coraz częściej prowadzi do opóźnień, kosztownych zmian projektowych i trudnych do usunięcia błędów, szczególnie w złożonych systemach obronnych. Jak podkreśla w rozmowie z Evertiqiem Dominik Kowalczyk, specjalista ds. techniki przeciwwybuchowej w firmie Dacpol, analiza EMC powinna obejmować cały cykl życia projektu – od koncepcji po wdrożenie. Wskazał również, gdzie najczęściej tracona jest integralność sygnałowa i dlaczego klasyczne podejście do EMC przestaje nadążać za rosnącą złożonością układów.
W wielu firmach EMC wciąż traktowane jest głównie jako wymóg do spełnienia na końcu projektu. Pojawia się zatem pytanie, w którym momencie takie podejście zaczyna stanowić realne ryzyko w systemach obronnych?
„Systemy obronne, pomimo bycia pewną niszą jak chodzi o elektronikę przemysłową, podlegają takim samym zjawiskom jak elektronika komercyjna. Odnosi się to także do kompatybilności elektromagnetycznej (EMC), która co prawda często traktowana jest jako wymóg do spełnienia na końcu projektu, ale w rzeczywistości optymalne podejście powinno zakładać, że analiza EMC dotyczy każdego etapu powstawania urządzenia: od projektu przez produkcję prototypu i testy jakości po wdrożenie na skalę seryjną. Dokładnie jak ma to miejsce w przypadku rynku cywilnego” – tłumaczy Evertiqowi Dominik Kowalczyk.
Ekspert zwraca uwagę, że w szczególności jest to istotne w elektronicznych systemach obronnych, które są na ogół bardziej skomplikowane i wymagają większego nakładu środków, co oznacza, że istotne jest, aby nie musieć cofać się w rozwoju projektu z powodu niespełnienia wymagań EMC, gdyż wiąże się to z dodatkowymi kosztami i opóźnieniami. Dlatego też zagrożenia, jakie należy brać pod uwagę, a które mogą wpływać negatywnie na proces opracowania wyrobu, to presja czasu wymuszająca konieczność uproszczeń technologicznych (np. zastosowanie innych, tańszych/łatwiej dostępnych, materiałów lub podzespołów), ograniczenia budżetowe oraz niewystarczające know-how uniemożliwiające realizację pełnej zakładanej funkcjonalności.
„Ryzyko jakie jest tu obecne jest związane z niespełnieniem wymagań EMC opisanych w odpowiednich normach i wymaganiach klienta końcowego. Z tego powodu ważne jest, aby monitorować każdą fazę realizacji projektu pod kątem kompatybilności w taki sposób, żeby móc możliwie jak najwcześniej wykryć ewentualne błędy, braki i niespójności, a nie dopiero na końcu całego procesu. Ograniczenie się tylko do weryfikacji na końcu projektu może skutkować tym, że nawarstwiające się błędy będą trudne do usunięcia, a konieczność przebudowy układu, albo przeprojektowania płytki PCB tak podwyższy koszty, że postawi realizację całego tematu pod znakiem zapytania” – wyjaśnia Dominik Kowalczyk.
Podczas projektowania PCB lub całych systemów często pojawiają się błędy, które choć niedoceniane, mogą doprowadzić do utraty integralności sygnałowej.
„Praktyka pokazuje, że wiele problemów związanych z utratą integralności sygnałowej dotyczy niewłaściwego zaprojektowania PCB. Inaczej mówiąc: w większości przypadków, odpowiedni projekt płytki jest w stanie zapewnić, że sygnał cyfrowy przejdzie przez tor transmisyjny bez przekłamań i zniekształceń, co jest kluczowe w nowoczesnej, szybkiej elektronice, gdzie zbocza sygnałów są strome, a czasy narastania bardzo krótkie” – mówi nam ekspert.
Jego zdaniem trudno wskazać jeden najczęstszy błąd, bo na liście mogłyby się znaleźć:
- problemy z polaryzacją i footprintami (np. odwrotny pinout), które uniemożliwiają montaż komponentów;
- zbyt cienkie ścieżki powodujące ich przegrzewanie i przepalanie;
- pułapki korozyjne („ostre kąty”);
- zwarcia;
- problemy z przelotkami/vias;
- niewłaściwe zarządzanie termiczne (za mało przelotek pod grzejącymi się elementami).
Poproszony o wskazanie jednego, powszechnego błędu, wymienił niewłaściwe rozmieszczenie elementów, które może prowadzić do zakłóceń sygnałowych, kolizji mechanicznych i dodatkowych trudności podczas montażu.
„Złego rozplanowania na płytce unika się na ogół poprzez współpracę między projektantami, a producentem, która polega na dokładnej analizie rozmieszczenia i uwzględnieniu wymagań technologicznych już na etapie projektu” – podsumowuje.
Zastanawialiśmy się również czy wraz ze wzrostem częstotliwości i złożoności układów klasyczne podejście do EMC przestaje być wystarczające. Czy jest coś, co powinno zmienić się w sposobie myślenia projektantów.
„Wydaje się, że największy problem związany jest z tym, że postęp technologiczny przebija kolejne bariery jeśli chodzi o częstotliwości i szybkości taktowania układów cyfrowych powodując, że coraz częściej przy ich projektowaniu pojawiają się zagadnienia związane z integralnością sygnałową. Dotychczas, przy klasycznym podejściu do EMC, integralność była traktowana raczej jako ciekawostka albo szczególny, ale jednak marginalny przypadek spotykany tylko w niektórych sektorach przemysłu (np. obronność, medycyna czy telekomunikacja)” – wyjaśnia Dominik Kowalczyk.
Uważa on, że obecnie, przy coraz szybszych procesorach, oba te zagadnienia zaczynają się zlewać w jedno przez co tradycyjne rozumienie kompatybilności elektromagnetycznej powinno zostać rozszerzone właśnie o rozumienie problemów, jakie niesie ze sobą brak integralności sygnałowej.
„Osoby pracujące przy PCB powinny być otwarte na nowe rozwiązania i technologie, które dają im możliwość sprostać coraz to poważniejszym wymaganiom jakie stawia się przed współczesną elektroniką, bo coraz częściej okazuje się, że wiedza projektanta musi być interdyscyplinarna i oprócz elektroniki musi obejmować także tematy z elektrotechniki, mechaniki, metrologii i termodynamiki” – mówi ekspert.
W przyszłości może się więc okazać, że do projektowania płytek PCB sama wiedza z elektroniki to za mało.
W praktyce konsekwencje tych zmian najpełniej widać w systemach wojskowych, gdzie problemy z integralnością sygnałową szybko przestają być kwestią projektową, a zaczynają wpływać na działanie całych platform.
Zdaniem Dominika Kowalczyka kluczowym obecnie zagadnieniem we współczesnych siłach zbrojnych jest pojęcie sieciocentryczności (C4ISR), które ma na celu scalanie informacji z wielu źródeł tak, aby stworzyć wspólny obraz pola walki.
„System taki integruje sensory z efektorami poprzez warstwę dowodzenia i kontroli i można powiedzieć, że jest to centralny układ nerwowy współczesnych organizacji militarnych. Każdy z elementów tego systemu jest obecnie w jakimś stopniu cyfrowy, więc na każdym poziomie pojawia się problem utrzymania integralności sygnałowej” – wyjaśnia ekspert.
Należy podkreślić, że problemy związane z brakiem tej integralności mogą przejawiać się w postaci błędów przy przetwarzaniu danych komputerowych, nieefektywnym przesyłaniu informacji, błędnej identyfikacji celów, trudnościach przy generowaniu odpowiedzi w czasie rzeczywistym, problemach z celnością, brakiem odpowiedzi na otrzymane instrukcje, utratą zasilania, niewłaściwym zadziałaniem podzespołów, uszkodzeniami wewnątrz układów elektronicznych, ograniczeniami funkcjonalności czy pogorszeniem procesu decyzyjnego i zdolności dowodzenia.
„Problem jest tym istotniejszy, że platformy wojskowe muszą nie tylko spełniać krajowe wymagania dotyczące integralności sygnałowej w taki sposób, aby urządzenie przeznaczone dla sektora obronnego mogło być wprowadzone na rynek, ale również było odporne na wrogie przeciwdziałanie, które na współczesnym polu walki może mieć postać wymuszonej utraty integralności sygnałowej” – kończy naszą rozmowę Dominik Kowalczyk.
Do tych kwestii Dominik Kowalczyk powróci 7 maja podczas Evertiq Expo w Krakowie, gdzie wygłosi prezentację „Wpływ zaburzeń EMC i znaczenie integralności sygnałowej dla systemów obronnych”. Rejestracja na wydarzenie już trwa!



