Przejdź do treści

Publikacje

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

HyTract: Advancing tractography for neurosurgical planning with a hybrid method integrating neural networks and a path search algorithm

Pojawienie się zaawansowanych technik rezonansu magnetycznego (MRI) otworzyło obiecujące możliwości badania złożoności neurofizjologii mózgu, w tym sieci połączeń nerwowych. Bardziej kompleksowe zrozumienie tej sieci dostarcza nieocenionych informacji o podstawowej architekturze strukturalnej i dynamicznych funkcjach ludzkiego mózgu. W konsekwencji, określanie lokalizacji włókien nerwowych, znane jako traktografia, stało się przedmiotem dużego zainteresowania zarówno w badaniach podstawowych, jak i w praktycznych zastosowaniach, takich jak planowanie przedoperacyjne. Niniejsza praca przedstawia nową metodę traktografii, HyTract, skonstruowaną przy użyciu sztucznych sieci neuronowych i algorytmu wyszukiwania ścieżki. Nasze wyniki pokazują, że metoda ta może dokładnie identyfikować lokalizację włókien nerwowych w bliskim sąsiedztwie pola operacyjnego. W porównaniu z dobrze ugruntowanymi metodami, traktografie obliczone przy użyciu HyTract wykazują średnią odległość euklidesową równą 9 lub mniejszą, co wskazuje na dobrą dokładność rekonstrukcji traktów. Co więcej, jej architektura zapewnia możliwość wyjaśnienia uzyskanych traktów i ułatwia ich adaptację do nowych zadań.

Artykuł:

Neural Networks

Rok wydania:

Autorzy z PW:

Ewa Niewiadomska-Szynkiewicz

Engineering Magnetic Anisotropy: The Role of Centrifugal Casting and Magnetic Fields in Strontium Ferrites

Publikacja przedstawia wpływ metody odlewania odśrodkowego w zewnętrznym polu magnetycznym na mikrostrukturę i właściwości magnetycznie twardych ferrytów strontu. Wytwarzano tzw. magnesy wiązane poprzez odlewanie zawiesiny proszku ferrytowego w żywicy epoksydowej oraz magnesy spiekane, gdzie masę lejną stanowiła zawiesina wodna cząstek proszku, a otrzymane kształtki poddawano spiekaniu. Zastosowano proszki o różnej wielkości cząstek, a odlewanie prowadzono przy dwóch różnych szybkościach obrotowych. Dzięki temu określono wpływ tych parametrów na gęstość, mikrostrukturę oraz na orientację cząstek – teksturę krystalograficzną i anizotropię magnetyczną. Stwierdzono, że magnesy wytwarzane z proszku zawierającego głównie małe, jednodomenowe cząstki charakteryzują się większa remanencją w kierunku osi obrotu kształtki. Oznacza to, że cząstki układają się kierunkiem łatwego namagnesowania (osią „c” struktury tetragonalnej) równolegle do osi obrotu. W magnesach zawierających głównie duże, wielodomenowe cząstki proszku obserwowano ukierunkowanie obwodowe tzn. remanencja osiągała największe wartości w kierunku prostopadłym do osi próbki i stycznym do jej powierzchni. Zwiększenie szybkości obrotowej prowadziło do zwiększenia anizotropii właściwości magnetycznych. W magnesach wiązanych występowała silniejsza anizotropia magnetyczna i tekstura krystalograficzna niż w magnesach spiekanych. Badania dowiodły, że odlewanie odśrodkowe w zewnętrznym polu magnetycznym może być skuteczną metodą wytwarzania magnesów spiekanych, a także magnesów wiązanych o strukturze gradientowej i kontrolowanej teksturze.

Artykuł:

Metallurgical and Materials Transactions A-Physical Metallurgy and Materials Science

Rok wydania:

Autorzy z PW:

Marta Lipińska, Tomasz Płociński, Waldemar Kaszuwara, Bartosz Michalski, Justyna Zygmuntowicz

Entropy generation and exergy destruction in transient and compressible steam flow through ISA 1932 measuring nozzle

W systemach pomiarowych, w których strumień masy wyznacza się na podstawie spadku ciśnienia, dotąd rzadko analizowano dokładne straty energii. W naszym badaniu skupiliśmy się na tym, ile entropii powstaje i ile „użytecznej” energii (egzergii) tracimy, gdy przegrzana para przepływa przez dyszę pomiarową typu ISA 1932 przy zadanym strumieniu. Do analizy wykorzystaliśmy podejście oparte na drugiej zasadzie termodynamiki, które pozwala ocenić straty w przepływie ściśliwym i nieustalonym. Zachowanie przepływu obliczyliśmy przy użyciu dwóch modeli turbulencji z rodziny RANS: k-ω SST 2006 i realizowalnego k-ε. Wyniki porównaliśmy z wartościami uzyskanymi wg norm przemysłowych. Za punkt odniesienia przyjęliśmy sytuację niezakłóconego przepływu w rurociągu. Okazało się, że choć oba modele dają podobne wartości strumienia energii, to tempo powstawania entropii i utraty egzergii różni się nawet o 55%. Analiza pokazała, że udział entropii generowanej przez wymianę ciepła jest praktycznie pomijalny w porównaniu z całkowitą ilością entropii. Najwyższe zmierzone tempo powstawania entropii wyniosło 45,33 W/(m·K), a odpowiadające mu tempo utraty egzergii 4 190 W – niemal w całości spowodowane rozpraszaniem lepkościowym. Wyniki te odpowiadają wartościom bezwymiarowej całkowitej generacji entropii dla rozpatrywanej liczby Reynoldsa Re.

Artykuł:

Energy

Rok wydania:

Autorzy z PW:

Krzysztof J. Wołosz

Economic viability of mobile electricity storage facilities serving as an alternative means of electricity sharing by providing time-shifting ancillary service

Zapewnienie warunków do zwiększenia tzw. autokonsumpcji energii – czyli zużywania jej w miejscu produkcji przez odbiorcę końcowego – jest kluczowe, aby zmaksymalizować jego korzyści ekonomiczne, wynikające z posiadania odnawialnych źródeł energii. Jednym z rozwiązań, które pozwalają realizować takie działanie, są magazyny energii elektrycznej. W praktyce jednak pojawia się problem, gdy podmioty mają wiele rozproszonych lokalizacji i chcą zwiększyć autokonsumpcję, jednocześnie nie sprzedając nadwyżek energii do sieci. W takim przypadku trzeba szukać innych sposobów transportu energii między tymi punktami. Jedną z opcji jest wykorzystanie mobilnych magazynów energii elektrycznej. Aby mogły one zastąpić tradycyjną metodę dystrybucji energii (wymagającą sprzedaż nadwyżek do sieci), konieczne jest sprawdzenie, czy takie rozwiązanie ma sens techniczny i ekonomiczny. W artykule zaprezentowano metodykę oceny dziennych kosztów transportu energii między lokalizacjami z wykorzystaniem floty specjalnie zaprojektowanych pojazdów elektrycznych, które przewożą w swojej powierzchni ładunkowej bateryjne mobilne magazyny energii elektrycznej. W pierwszej kolejności zbadano techniczną wykonalność takiej usługi sieciowej, a następnie przeanalizowano opłacalność całego procesu dla dwóch kategorii pojazdów z pojemnością znamionową bateryjnych mobilnych magazynów energii od 24 kWh do 192 kWh. Na podstawie otrzymanych wyników stwierdzono, że możliwe jest świadczenie takiej usługi w formie przesuwania obciążenia w czasie (load time-shifting). Jednak rozwiązanie to zaczyna być opłacalne dopiero przy cenie energii elektrycznej przekraczającej 1,00 EUR/kWh (obecna cena zakupu energii elektrycznej z usługami dystrybucyjnymi wynosi około 0,2 EUR/kWh). Podmiot, który zdecyduje się na takie przenoszenie energii między lokalizacjami, może osiągnąć zysk od 605 EUR aż do 116 000 EUR. Lepsze rezultaty uzyskuje się w scenariuszach, w których wykorzystuje się pojazdy o większym potencjale energetycznym – czyli z większą pojemnością baterii i mniejszą masą urządzeń w torze mocy (przetwornice energoelektroniczne, rozdzielnice, przewody itp.).

Artykuł:

Energy Conversion and Management

Rok wydania:

Autorzy z PW:

Krzysztof Zagrajek 

Learning Permutation Symmetry of a Gaussian Vector with gips in R

Badanie ukrytych struktur w danych jest dużym wyzwaniem we współczesnej statystyce i uczeniu maszynowym. Wprowadzamy pakiet gips w języku R, który identyfikuje symetrie podgrup permutacji w wektorach Gaussowskich. Pakiet gips ma dwa główne cele: analizę eksploracyjną w odkrywaniu ukrytych symetrii permutacyjnych oraz estymację macierzy kowariancji pod warunkiem symetrii permutacyjnej. Jest konkurencyjny w stosunku do kanonicznych metod redukcji wymiarowości, oferując jednocześnie nową interpretację wyników. gips implementuje nowatorską procedurę wyboru modelu Bayesowskiego dla wektorów Gaussowskich, które są niezmiennicze względem podgrupy permutacji, opisanej w pracy Graczyk, Ishi, Kołodziejek i Massam (2022b), The Annals of Statistics, 50 (3) (2022).

Artykuł:

Journal of Statistical Software

Rok wydania:

Autorzy z PW:

Adam Przemysław Chojecki, Bartosz Kołodziejek

Dyscyplina:

Definitions and comprehensive assessment of fault isolability in expert-based diagnostic systems

Artykuł analizuje aktualny stan badań nad metodami wnioskowania diagnostycznego oraz oceną rozróżnialności uszkodzeń. Autorzy zwracają uwagę na rozbieżności terminologiczne, które pojawiają się w literaturze naukowej. W pracy zdefiniowano relacje rozróżnialności par uszkodzeń dla metod wnioskowania opartych na kolumnach (sygnaturach uszkodzeń) i wierszach (obserwowanych symptomach), wykorzystujących zarówno binarną, jak i wielowartościową ocenę residuów. Dodatkowo rozważono możliwość rozróżniania uszkodzeń na podstawie analizy sekwencji ich symptomów. W celu pełniejszej oceny i porównania różnych rozwiązań systemów diagnostycznych zaproponowano dwie nowe miary rozróżnialności uszkodzeń. Ich wartości ilościowe zależą od rodzaju relacji rozróżnialności dla danej pary uszkodzeń. Aby zilustrować proponowane podejście, autorzy przedstawili przykład porównania i oceny rozróżnialności uszkodzeń w różnych wariantach wnioskowania diagnostycznego w układzie szeregowym zbiorników buforowych.

Artykuł:

Mechanical Systems and Signal Processing

Rok wydania:

Autorzy z PW:

Jan Maciej Kościelny, Anna Sztyber-Betley

Application of machine learning models for evaluating the impact of roadside advertising on driver discomfort

Bezpieczeństwo ruchu drogowego w dużym stopniu zależy od wpływu reklam przydrożnych na dyskomfort kierowców, ponieważ zbyt duże zmiany parametrów oświetleniowych reklam oraz kontrastu względem otoczenia mogą powodować zmęczenie wzroku oraz obniżać koncentrację kierującego pojazdem. Niniejsza praca uwzględnia istotne czynniki związane z luminancją reklam/otoczenia  i infrastrukturą drogową w celu przetestowania kilku modeli uczenia maszynowego do szacowania dyskomfortu kierowcy wywoływanego przez billboardy reklamowe. Przeprowadzono trening i ocenę czterech modeli klasyfikacyjnych — regresji logistycznej, drzewa decyzyjnego, lasu losowego oraz sieci neuronowej — z wykorzystaniem zbioru danych obejmującego pomiary luminancji reklam/otoczenia oraz charakterystykę dróg. Do oceny modeli wykorzystano dokładność, czułość, swoistość oraz pole pod krzywą ROC (AUC). Wydajność modeli zoptymalizowano metodami regularyzacji LASSO i ElasticNet, walidację modeli przeprowadzono metodą 10-krotnej walidacji krzyżowej. Sieć neuronowa wyróżniała się równowagą pomiędzy odsetkiem wyników fałszywie pozytywnych i fałszywie negatywnych, osiągając 93,18% dokładności, czułość na poziomie 96,97% oraz swoistość na poziomie 81,82%. Regresja logistyczna uzyskała dokładność 86,36%, lecz wykazała niższą swoistość (45,45%), co zwiększyło odsetek wyników fałszywie pozytywnych. Natomiast drzewo decyzyjne osiągnęło najniższą zdolność klasyfikacyjną (75,00% dokładności, 72,18% AUC), podczas gdy model lasu losowego wypadł dość dobrze (79,55% dokładności, 81,13% AUC). Głównymi czynnikami przewidującymi dyskomfort kierowcy były maksymalna luminancja reklamy, kontrast względem otoczenia oraz średnia luminancja reklam, natomiast charakterystyka drogi miała niewielki wpływ. W szczególności sieci neuronowe pokazują, że algorytmy uczenia maszynowego mogą z dużą precyzją oceniać poziom dyskomfortu kierowców wobec reklam w pasie drogowym. Wyniki te dostarczają informacji pomocnych przy formułowaniu zasad mających na celu zwiększenie bezpieczeństwa ruchu i optymalizację warunków oświetlenia w pasie drogowym. W przyszłych badaniach należy rozważyć zaawansowane konfiguracje głębokich sieci neuronowych oraz systemy wykrywania dyskomfortu w czasie rzeczywistym w dynamicznych warunkach jazdy.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Marcin Chrzanowicz, Piotr Tomczuk, Piotr Jaskowski 

Tri-omic single-cell mapping of the 3D epigenome and transcriptome in whole mouse brains throughout the lifespan

Badanie genomowych podstaw programów transkrypcyjnych jest od dawna przedmiotem badań. W publikacji opisujemy metodę jednokomórkową, ChAIR, do mapowania dostępności chromatyny, interakcji chromatynowych i ekspresji RNA jednocześnie. Po walidacji w hodowanych komórkach, zastosowaliśmy ChAIR do całych mózgów myszy i nakreśliliśmy skoordynowaną dynamikę epigenomu, trójwymiarowego (3D) genomu i transkryptomu podczas dojrzewania i starzenia. W szczególności, interakcje chromatyny skoncentrowane na genach i stany otwartej chromatyny zapewniły trójwymiarowy mechanizm epigenomiczny leżący u podstaw transkrypcji specyficznej dla typu komórki i ujawniły przestrzennie rozdzieloną specyficzność. Co ważne, skład krótkozasięgowych i ultradługich kontaktów chromatynowych w poszczególnych komórkach jest znacząco skorelowany z aktywnością transkrypcyjną, stanem otwartej chromatyny i gęstością fałdowania genomu. Ta właściwość genomowa, wraz z powiązanymi właściwościami komórkowymi, różni się w neuronach i komórkach nieneuronalnych w różnych regionach anatomicznych przez całe życie, co sugeruje rozbieżne mechanizmy mechano-genomowe w komórkach mózgu. Nasze wyniki pokazują solidność ChAIR w identyfikacji i analizie jednokomórkowych stanów epigenomicznych 3D transkrypcji specyficznej dla typu komórki w złożonych tkankach.


Współpraca Laboratorium Bioinformatyki i Genomiki Obliczeniowej obejmowała: Life Sciences Institute, Zhejiang University, Hangzhou, Chiny; Institute of Reproduction and Development, Fudan University, Shanghai, Chiny; Department of Genome Sciences, University of Washington, Seattle, WA, USA.

Artykuł:

Nature Methods

Rok wydania:

Autorzy z PW:

Krzysztof Banecki, Dariusz Plewczyński

Stabilization toward air and structure determination of pyrophoric ZnR2 compounds via supramolecular encapsulation

Związki dialkilocynkowe (ZnR₂, gdzie R = Me lub Et) są szeroko stosowanymi reagentami w syntezie organicznej oraz chemii materiałów. Jednakże w warunkach standardowych występują one jako piroforyczne ciecze, które gwałtownie reagują z wodą i tlenem obecnymi w powietrzu. Znacząco utrudnia to posługiwanie się tymi związkami w codziennej pracy laboratoryjnej. W niniejszym artykule prezentujemy, że reaktywne związki dialkilocynkowe mogą zostać efektywnie enkapsulowane w monokrystalicznych matrycach, stworzonych z odpowiednio zaprojektowanych związków koordynacyjnych. Takie unieruchomienie cząsteczek ZnR₂ umożliwia nie tylko ich szczegółową charakterystykę strukturalną w nowym, ograniczonym otoczeniu, ale także skutecznie zabezpiecza je przed dostępem powietrza, otwierając drogę do bezpieczniejszego oraz bardziej efektywnego wykorzystania tych niebezpiecznych reagentów chemicznych. Co więcej, specyficzne warunki stwarzane wewnątrz subnanometrycznych wnęk w opracowanym układzie supramolekularnym umożliwiają selektywne wychwycenie cząsteczek ZnMe₂ z mieszaniny ZnMe₂ i ZnEt₂ umożliwiając jej efektywne rozdzielenie. 

Artykuł:

Science advances

Rok wydania:

Autorzy z PW:

Michał Terlecki, David Fairen-Jimenez, Wojciech Bury, Krzysztof Budny-Godlewski, Jan Nawrocki, Marek Kościelski, Janusz Lewiński

Dyscyplina:

Polarization Gratings Aided Common‐Path Hilbert Holotomography for Label‐Free Lipid Droplets Content Assay

W niniejszym artykule przedstawiono nowatorską metodę wspomaganą przez siatki polaryzacyjne – holo-tomografię Hilberta wspólnej drogi (CP-HHT) – do bez-znacznikowego mikroskopowego obrazowania trójwymiarowego rozkładu współczynnika załamania światła. W odpowiedzi na ograniczenia obecnych metod holo-tomografii, wykorzystano rozszerzoną przepustowość informacyjną z pomocą spiralnej transformacji Hilberta. Zastosowanie polaryzacyjnych siatek dyfrakcyjnych w układzie umożliwia pełną kontrolę ustawień holograficznych, takich jak gęstość i przesunięcie prążków interferecyjnych w hologramie, co zapewnia elastyczną demodulację hologramów przy zachowaniu prostoty i niezawodności systemu. Skuteczność systemu została przetestowana przy użyciu fantomu skrawka mózgu wydrukowanego w technologii 3D (wykonanego za pomocą polimeryzacji dwufotonowej) oraz utrwalonych komórek HeLa wzbogaconych o cholesterol i kwasy oleinowe. Analiza rekonstrukcji przy użyciu fantomu mózgu wskazuje, że metoda Hilberta zapewnia lepszą rozdzielczość przestrzenną niż metoda transformacji Fouriera, oferując znacząco rozszerzoną zawartość informacyjną pomiarów. Podejście CP-HHT wykazuje unikalną (niemożliwą do osiągnięcia przy fluorescencji) zdolność do pomiaru kropli lipidowych wzbogaconych w cholesterol i kwas oleinowy oraz wskazuje, że wykazują one mierzalne różnice w wartościach współczynnika załamania. Wyniki te sugerują, że metoda ta jest czuła na zmienność zawartości lipidów obojętnych, oferując obiecujące możliwości analizy heterogeniczności kropli lipidowych i wspierając jej potencjał w bezznacznikowym obrazowaniu subkomórkowym, tym samym potwierdzając wszechstronność i użyteczność systemu CP-HHT w szerszych zastosowaniach bioobrazowania in vitro.  

Artykuł:

Laser & Photonics Reviews

Rok wydania:

Autorzy z PW:

Piotr Zdańkowski, Julianna Winnik, Mikołaj Rogalski, Marcin Marzejon, Emilia Wdowiak, Michał Józwik, Maciej Trusiak 

Stakeholder perceptions of biodiversity in urban residential areas

Czy przyroda w mieście oznacza tylko schludnie przystrzyżony trawnik i równo posadzone tuje? A może naturalistyczne przestrzenie z gęstą roślinnością, martwym drewnem i siedliskami dla owadów mają szansę stać się nową normą? Nasze badanie przeprowadzone w warszawskich dzielnicach pokazuje, że odpowiedź nie jest jednoznaczna – i że bardzo wiele zależy od tego, kto patrzy na zieleń.

W ramach badania zapytaliśmy 144 osoby z czterech grup interesariuszy – architektów, architektów krajobrazu, pracowników administracji publicznej i lokalnych aktywistów – jak postrzegają różne elementy bioróżnorodności w mieście. Uczestnicy oceniali m.in. obecność wielowarstwowej roślinności, martwego drewna, owadów i struktur przyjaznych zwierzętom, a także wyrażali swoje preferencje wobec projektów zieleni pokazanych na fotomontażach.

Co mówią wyniki?

81% badanych wykazuje pozytywne nastawienie do przyrody, co jest dobrym punktem wyjścia. Jednak preferencje i obawy znacząco się różnią między grupami:

o lokalni aktywiści najczęściej popierali bioróżnorodne krajobrazy – doceniają naturalność, dzikość i obecność elementów takich jak martwe drewno czy gęsta roślinność.

o architekci i urzędnicy byli bardziej sceptyczni – obawiali się m.in. kwestii bezpieczeństwa, estetyki oraz kosztów utrzymania.

o architekci krajobrazu zajmowali stanowisko pośrednie – rozumieją korzyści płynące z bioróżnorodności, ale podchodzą do niej ostrożnie.

Co z tego wynika?

Nasze badanie pokazuje, że promowanie bioróżnorodnych przestrzeni miejskich wymaga dialogu i zrozumienia różnych punktów widzenia. Kluczowe jest także rozbijanie mitów – na przykład, że gęsta roślinność jest zawsze niebezpieczna czy „niechlujna”. W rzeczywistości to właśnie takie elementy jak bujna zieleń, martwe drewno czy obecność owadów mogą przynosić realne korzyści: oczyszczanie powietrza, zwiększenie retencji wody, wsparcie dla zapylaczy i poprawa dobrostanu mieszkańców.

Artykuł:

Journal of Environmental Management

Rok wydania:

Autorzy z PW:

Jakub Heciak

Bigger, Regularized, Optimistic: scaling for compute and sample efficient continuous control

Efektywność wykorzystania próbek (sample efficiency) w uczeniu ze wzmocnieniem (RL) była tradycyjnie napędzana przez ulepszenia algorytmiczne. W niniejszej pracy pokazujemy, że skalowanie (architektury) również może prowadzić do znacznych usprawnień. Przeprowadziliśmy szczegółowe badania dotyczące wzajemnego wpływu skalowania pojemności modelu oraz specyficznych dla danej dziedziny usprawnień w RL. Te empiryczne wyniki wpływają na wybory projektowe, które leżą u podstaw naszego zaproponowanego algorytmu BRO (Bigger, Regularized, Optimistic). Kluczową innowacją BRO jest to, że silna regularizacja umożliwia skuteczne skalowanie sieci krytyków, które, połączone z optymistycznym eksplorowaniem, prowadzi do lepszej wydajności. BRO osiąga wyniki na poziomie stanu sztuki, znacząco przewyższając wiodące algorytmy oparte na modelach (model-based) i algorytmy bez modeli (model-free) w 40 złożonych zadaniach z benchmarków DeepMind Control, MetaWorld i MyoSuite. BRO jest pierwszym algorytmem bez modelu, który osiąga niemal optymalne polityki w wyjątkowo trudnych zadaniach Dog i Humanoid.

Materiał konferencyjny:

Advances in Neural Information Processing Systems 37

Rok wydania:

Autorzy z PW:

Michal Nauman, Mateusz Ostaszewski