Studencka Konferencja Zastosowań Matematyki
23-25 marca 2018

O Konferencji


Studencka Konferencja Zastosowań Matematyki DwuMIan to pierwsza warszawska konferencja studencka organizowana przez czołowe ośrodki matematyczne w Polsce – Wydział MIM UW oraz Wydział MiNI PW.

Powstała ona z inicjatywy:

  • Koła Naukowego Modelowania Matematycznego Politechniki Warszawskiej,
  • MI2 Data Labu,
  • Zarządu Samorządu Studentów Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego,
  • Wydziałowej Rady Samorządu Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej,
  • Koła Naukowego Data Science Politechniki Warszawskiej.

Celem wydarzenia jest integracja studentów zainteresowanych zastosowaniami metod matematycznych w naukach technicznych i przyrodniczych. W ramach konferencji wygłaszane będą referaty przygotowane zarówno przez studentów chcących podzielić się swoją wiedzą jak i osoby zawodowo uprawiające matematykę. Częścią konferencji będzie także sesja plakatowa.

Galeria zdjęć

Więcej informacji


Data

23-25 marca 2018


Miejsce

Wydział Matematyki i Nauk Informacyjnych
Politechnika Warszawska
ul. Koszykowa 75
00-662 Warszawa

Mapka wydziału i okolic do pobrania tutaj. Bardziej szczegółowa mapa Google dla precyzji.


Regulamin
Regulamin konferencji dostępny jest w tym miejscu.

PROGRAM KONFERENCJI

Zachęcamy do zapoznania się z programem konferencji oraz książką abstraktów.

W ramach Konferencji odbędą się dwa spotkania integracyjne.
W piątek od 19 na Wydziale MiNI organizujemy Wieczór planszówek. Serdecznie zapraszamy do wspólnej zabawy oraz dołączanie do wydarzenia na Facebooku.
W sobotę przejdziemy się z Krzysztofem Rudasiem z Wydziału MiNI na Wydział MIM UW. Podczas spaceru Krzysiek opowie Wam m.in. o związku Banacha z Warszawą. Na miejscu odbędzie się spotkanie z członkami kół naukowych, na którym będzie można wziąć udział w dyskusji o różnych aspektach uczestnictwa w organizacjach studenckich albo po prostu posłuchać interesujących wypowiedzi naszych panelistów. Więcej informacji na wydarzeniu na Facebooku.

Rejestracja

Rejestracja na DwuMIan jest już zamknięta.

Konkursy

Formularz do głosowania na najlepsze referaty i najlepszy plakat

Na koniec konferencji odbędzie się konkurs na najlepsze referaty i najlepszy plakat. Głosowanie odbędzie się przez internet, a na głosowanie będziecie mieli 15 minut przed oficjalnym zakończeniem konferencji. Zapraszamy do udziału! Regulamin konkursu dostępny jest tutaj

Poza poważnymi konkursami za najlepszy referat każdej ze ścieżek i plakat, przygotowaliśmy dla Was konkurs naklejkowy. Zasady są proste: trzeba zebrać zestaw składający się z 7 różnych naklejek i wkleić je do książki konferencyjnej.
Na start dostajecie jedną naklejkę w pakiecie startowym. Kolejne będziemy rozdawać pod koniec wykładów plenarnych. Naklejki będą rozdawane losowo, także wymieniajcie się, by zebrać je wszystkie!
Uwaga! Oczywiście, każda osoba, która zbierze zestaw naklejek wygrywa, ale spieszcie się, bo liczba nagród jest ograniczona. Regulamin konkursu dostępny jest tutaj

Ścieżki tematyczne

Konferencja podzielona jest na dwie równoległe sesje tematyczne.

Statystyka i Inżynieria Danych


W dobie szybkiego postępu technologicznego rejestrowanie i przechowywanie informacji różnego typu nie stanowi już dla nas wyzwania – obecnie o wiele większych trudności nastręcza wybór odpowiedniej części dostępnych pomiarów i ich interpretacja. I choć termin „data scientist”, oznaczający osobę podejmującą próbę zmierzenia się z tym ogromem danych, powstał zaledwie kilka lat temu, od razu zadebiutował jako określenie „najseksowniejszego zawodu XXI wieku”. Big Data i związane z tą tematyką zagadnienia są dziś bez wątpienia jednym z głównych nurtów w szeroko pojętej inżynierii i analizie danych. Szukanie pewnych wzorców i regularności prowadzące do uzyskania nowej wiedzy o otaczającej nas rzeczywistości, problem kompresji zgromadzonych informacji, jak i optymalizacja algorytmów, by możliwa była praca z tak dużymi zbiorami – są to zadania stojące przed statystykami i badaczami danych. Tworzone zgodnie z dostępną nam wiedzą statystyczną modele wyjaśniają zależności pomiędzy zdarzeniami, umożliwiają prognozowanie poziomów różnych czynników oraz wspierają podejmowanie decyzji. Nawet analiza wykorzystująca najprostsze metody może dać nam pewną wiedzę o zachodzących zjawiskach.

Do udziału w bloku „Statystyka i Inżynieria Danych” serdecznie zapraszamy zarówno tych, którzy podchodzą do wymienionych wyżej zagadnień od strony statystyki matematycznej, jak i tych o bardziej praktycznym podejściu, mogących zaprezentować wyniki swojej pracy. W związku z tym zachęcamy do zgłaszania referatów i plakatów poruszających tematykę estymacji i modeli parametrycznych lub nieparametrycznych, analizy wielowymiarowej i szeregów czasowych od strony teoretycznej oraz przedstawiających przykłady ciekawych zastosowań metod analizy danych do odpowiedzi na postawione uprzednio pytania.

Zastosowania matematyki w naukach technicznych i przyrodniczych

Matematyka pojawia się w wielu dziedzinach nauki. Wszelkie procesy techniczne, opis zjawisk przyrodniczych, predykcja zachowania układów wiąże się często z zaawansowanymi metodami obliczeniowymi. Rozważane układy równań różniczkowych (zarówno zwyczajnych jak i cząstkowych) mają za zadanie jak najwierniej odwzorować rzeczywistość. Istotnym elementem matematyki przemysłowej jest modelowanie matematyczne. Obniża ono znacznie koszty budowy układu i pozwala ono sprawdzić zachodzenie pewnych zjawisk za pomocą jedynie implementacji i symulacji. Dzięki matematyce możemy obliczać naprężenia i odkształcenia materiałów, przewidywać pogodę, badać procesy biologiczne. Blok „Zastosowania matematyki w naukach technicznych i przyrodniczych” będzie poświęcony wyżej opisanym zagadnieniom. Do udziału w nim zapraszamy wszystkich matematyków oraz inżynierów różnych dziedzin zainteresowanych lub też wykorzystujących w swej pracy najnowsze metody matematyczne w inżynierii.

Gorąco zachęcamy do zgłaszania swoich referatów i plakatów związanych z tematami zarówno czysto praktycznymi (np. metody numeryczne, ich zastosowania w obliczeniowej mechanice płynów, wytrzymałości materiałów czy też mechanice kwantowej, algorytmy rekonstrukcji w technikach obrazowania medycznego, programowanie całkowitoliczbowe itd.), jak również bardziej teoretycznymi (np. istnienie, jednoznaczność i regularność rozwiązań równań różniczkowych, zastosowania nierówności wariacyjnych czy też zagadnienia związane z metodami probabilistycznymi, układami dynamicznymi lub geometrią różniczkową).

Zaproszeni goście




Prof. dr hab. Paweł Strzelecki

Prof. Paweł Strzelecki jest dziekanem Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego (kadencja 2016 - 2020). Naukowo zajmuje się nieliniowymi równaniami różniczkowymi cząstkowymi, rachunkiem wariacyjnym oraz analizą geometryczną. Jest autorem 39 publikacji naukowych. W latach 1999 - 2001 i 2002 - 2003 w ramach Stypendium Alexandra von Humboldta prowadził działalność naukową na Uniwersytecie w Bonn.

W 2015 roku otrzymał od Polskiego Towarzystwa Matematycznego nagrodę im. Samuela Dicksteina za wybitne osiągnięcia w dziedzinie popularyzacji i upowszechniania matematyki.


Piękno czy przydatność? Co jest usprawiedliwieniem twórczości matematycznej?
piątek, 23 marca, godz. 12:25 - 13:10
Przedstawię mój własny (głęboko subiektywny) pogląd na postawioną wyżej kwestię, omawiając m.in. znane poglądy Hardy’ego i Wignera, ale także dużo bardziej współczesne odkrycia, odwołujące się do równań cząstkowych czerpiących motywacje z geometrii i z fizyki, z pogranicza matematyki (zdaniem niektórych) czysto teoretycznej oraz (zdaniem niektórych) stosowanej.

Rozwiń

Prof. dr hab. Anna Gambin

Prof. Anna Gambin jest prodziekanem ds. badań i współpracy międzynarodowej Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego (kadencja 2016 - 2020). W swojej pracy naukowej zajmuje się modelowaniem matematycznym procesów molekularnych oraz efektywnymi algorytmami dla analizy danych biomedycznych. Ostatnio jej badania koncentrują się na metodach obliczeniowych wspomagających diagnostykę medyczną opartą o dane genetyczne i proteomiczne. Jest autorką ponad 80 publikacji naukowych, wypromowała siedmiu doktorów w dziedzinie biologii obliczeniowej.


Modelowanie statystyczne w medycynie molekularnej
piątek, 23 marca, godz. 13:30 - 14:15
Rozwój wysokoprzepustowych technik eksperymentalnych w naukach biomedycznych prowadzi do pozyskania ogromnych ilości trudnych w interpretacji danych. W referacie skoncentruję się na danych otrzymywanych w spektrometrii mas, w której obserwuje się wyraźny trend polegający na upowszechnianiu się instrumentów oferujących coraz to wyższą rozdzielczość wyników. Główne zadanie dla informatyka i matematyka polega na opracowaniu efektywnych metod uczenia maszynowego i adekwatnych modeli statystycznych, które pozwolą na identyfikację i interpretację sygnałów. Omówię dwa problemy związane z analizą danych spektrometrycznych, które udało się rozwiązać za pomocą metod zaproponowanych w moim zespole. Pierwszy dotyczy modelowania procesu proteolizy, czyli trawienia białek, a drugi dysocjacji jonów w spektrometrze.

Rozwiń


Dr hab. Tomasz Cieślak, prof. IMPAN

Prof. Tomasz Cieślak naukowo zajmuje się równaniami różniczkowymi cząstkowymi (głównie układem Kellera - Segela, równaniem Huntera - Saxtona, równaniem Eulera) oraz hydrodynamiką (vortex sheet’y i ich własności oraz multipeakony i ich dynamika). Uzyskał stopień doktora habilitowanego w Instytucie Matematycznym Polskiej Akademii Nauk. Pracował jako profesor na Ludwig-Maximillians-Universitaet w Monachium (kwiecień - wrzesień 2016) oraz visiting professor na wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego (październik 2015 - wrzesień 2016). Od czerwca 2015 roku jest profesorem nadzwyczajnym Instytutu Matematycznego Polskiej Akademii Nauk.


Funkcjonały (prawie-)Lapunowa w jednowymiarowym układzie Keller-Segel
sobota, 24 marca, godz. 10:00 - 10:45
Opowiem o pewnych wielkościach, zachowywanych lub takich, których wzrost wzdłuż trajektorii rozwiązań równań Keller-Segel umiemy kontrolować. Równania KS są używane jako narzędzie opisu pewnych procesów onkologicznych. Wielkości, których czasową ewolucję znamy, pozwalają badać ewolucję rozwiązań, ale także analizować schematy numeryczne używane do rozwiązywania równań na komputerach. Pokażę jeden funkcjonał Lapunowa znany szeroko w środowisku i dwa funkcjonały prawie-Lapunowa, które ostatnio znaleźliśmy wspólnie z K.Fujie (Tokyo Univ. of Science). Opiszę pewne konsekwencje tych funkcjonałów.

Rozwiń


Dr Paweł Teisseyre

Dr Paweł Teisseyre pracuje jako adiunkt w Instytucie Podstaw Informatyki PAN. Ponadto prowadzi zajęcia dydaktyczne z zakresu statystyki, uczenia maszynowego i analizy danych na Politechnice Warszawskiej, na kierunkach matematyka i informatyka. Współpracuje również z Agencją Oceny Technologii Medycznych i Taryfikacji w zakresie analiz statystycznych. Jego zainteresowania naukowe obejmują statystykę oraz uczenie maszynowe (machine learning), a dokładniej: klasyfikację wieloetykietową, problemy selekcji zmiennych w danych wysoko-wymiarowych, wykrywanie interakcji między zmiennymi, analiza danych medycznych.


Wprowadzenie do klasyfikacji wieloetykietowej
sobota, 24 marca, godz. 10:00 - 10:45
Celem wykładu jest przedstawienie problemu klasyfikacji wieloetykietowej. W klasycznym problemie klasyfikacji modelujemy zależność między zmienną odpowiedzi (najczęściej binarną) a zmiennymi objaśniającymi. W klasyfikacji wieloetykietowej rozważamy wiele binarnych zmiennych odpowiedzi jednocześnie. W ostatnich latach klasyfikacja wieloetykietowa wzbudziła bardzo duże zainteresowanie. Metody klasyfikacji wieloetykietowej są stosowane w wielu dziedzinach, takich jak automatyczna kategoryzacja tekstów, rozpoznawanie obrazów, modelowanie wielozachorowalności (współwystępowanie wielu chorób jednocześnie), przewidywanie skutków ubocznych leków i wiele innych. Opowiem o popularnych metodach stosowanych w klasyfikacji wieloetykietowej, miarach oceny modeli oraz dostępnych pakietach.

Rozwiń

Prof. dr hab. Przemysław Grzegorzewski

Prof. dr hab. Przemysław Grzegorzewski jest pracownikiem Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej oraz Instytutu Badań Systemowych PAN. W swojej pracy naukowej zajmuje się wspomaganiem decyzji w warunkach niepewności, ze szczególnym uwzględnieniem metod statystycznych dla nieprecyzyjnych danych. Jego badania dotyczą głównie metod modelowania i przetwarzania nieprecyzyjnych informacji, statystyki matematycznej, analizy danych, statystycznej kontroli jakości, uczenia maszynowego, teorii zbiorów rozmytych i sztucznej inteligencji. Jest opiekunem specjalności „Statystyka matematyczna i analiza danych” na studiach II stopnia na Wydziale MiNI.


Wnioskowanie statystyczne na podstawie danych przedziałowych - problemy, przykłady, wyzwania
sobota, 24 marca godz. 13:30 - 14:15
Rozwój metod wnioskowania statystycznego oraz postęp w analizie danych i uczeniu maszynowym powiązany jest z przekraczaniem kolejnych ograniczeń dotyczących struktury danych. Zainteresowania i potrzeby współczesnej statystyki nie ograniczają się już do danych ujętych w postaci liczb i wektorów, ale obejmują również analizę danych funkcjonalnych, symbolicznych, rozmytych itd.

W ostatnim czasie dużym zainteresowaniem cieszą się metody wnioskowania na podstawie danych przedziałowych. Za pomocą przedziałów można bowiem w sposób stosunkowo prosty, a zarazem efektywny, modelować brak precyzji, niepewność wynikającą z braku informacji, fluktuacje mierzonej wielkości itp. Zdarzają się także sytuacje, w których dokładne dane liczbowe zastępowane są przedziałami w celu zabezpieczenia prywatności informacji.

Konstrukcja metod wnioskowania statystycznego na podstawie danych przedziałowych nie powinna sprowadzać się do mechanicznego uogólniania metod klasycznych, uzupełnionych o arytmetykę przedziałową. Budowę konkretnej procedury statystycznej należy zacząć od ustalenia sposobu interpretowania danych, bowiem samo przyjęcie przedziałowej struktury danych nie pociąga za sobą domyślnej interpretacji (w przypadku danych przedziałowych można mówić co najmniej o dwóch podstawowych sposobach interpretacji - epistemicznym i ontycznym). Tymczasem konsekwencją wyboru interpretacji jest możność zastosowania takiego czy innego aparatu analitycznego. Wybór interpretacji przekłada się również na własności konstruowanych procedur statystycznych, jakość i sensowność dokonywanych za ich pomocą prognoz itd.
W referacie zostaną zasygnalizowane pewne problemy pojawiające się w trakcie budowy narzędzi statystycznych do wnioskowania na podstawie danych przedziałowych. Zostaną omówione możliwe scenariusze działania, wynikające z przyjętego sposobu interpretacji danych. Rozważania zostaną zilustrowane przykładami praktycznych rozwiązań.

Rozwiń

fot. Leszek Zych/POLITYKA

Dr Jan Poleszczuk

Dr Jan Poleszczuk, adiunkt w Instytucie Biocybernetyki i Inżynierii Biomedycznej im. Macieja Nałęcza Polskiej Akademii Nauk, absolwent Wydziału Matematyki, Informatyki i Mechaniki, Uniwersytetu Warszawskiego. Jako matematyk pracujący w obszarze medycyny, wspiera wiedzą ze swojej dziedziny biologów, lekarzy, fizyków i chemików. Stosuje metody matematyczne, by zrozumieć, jak ze sobą współdziałają mutacje genów i  jaki mają wpływ na wzrost nowotworów oraz jak różne patologie układu krążenia przekładają się na charakterystykę propagacji fali pulsu w układzie tętniczym.

Swoją wiedzę i doświadczenie uzupełniał podczas dwuletniego stażu podoktorskiego w Integrated Mathematical Oncology Department, Moffitt Cancer Center & Research Institute, Tampa, USA. Część swojego wolnego czasu poświęca na prowadzenie popularyzatorskiego bloga Compute Cancer (computecancer.wordpress.com) oraz rozwijanie startupu, który założył w USA tuż przed swoim powrotem do Polski.
Laureat Nagród Naukowych POLITYKI 2017, zdobywca prestiżowego stypendium Ministra dla wybitnych młodych naukowców, stypendysta Fundacji na rzecz Nauki Polskiej (program START) oraz zdobywca nagrody PTM dla młodych matematyków.


Modelowanie propagacji fali pulsu dla celów diagnostyki sercowo-naczyniowej
sobota, 24 marca, godz. 15:45 - 16:30
W dzisiejszych czasach nieodłącznym elementem systematycznej kontroli stanu zdrowia jest pomiar ciśnienia skurczowego i rozkurczowego krwi. Pozwala to na wczesne rozpoznanie nadciśnienia tętniczego, które niesie ze sobą ryzyko wystąpienia chorób sercowo-naczyniowych. Jednak już pod koniec XIX wieku zauważono, że analiza dokładnie nagranego kształtu fali ciśnienia w tętnicach obwodowych (np. w nadgarstku) pozwala na dużo dokładniejsze określenie stanu układu naczyniowego pacjenta. Na wykładzie, posługując się modelem matematycznym sformułowanym przy pomocy układu równań różniczkowych cząstkowych i opisującym przepływ krwi przez rozbudowane drzewo tętnicze, pokażę jakie informacje można odczytać z kształtu fali ciśnienia i jak mogą być one wykorzystane w praktyce klinicznej.

Rozwiń

Dr hab. inż. Maciej Grzenda, prof. PW

Prof. Maciej Grzenda jest prodziekanem ds. rozwoju Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej (kadencja 2016-2020). W swojej pracy naukowej zajmuje się metodami wstępnego przetwarzania danych oraz zastosowaniami przemysłowymi metod uczenia maszynowego. Jest autorem lub współautorem 50 publikacji. Jako certyfikowany kierownik projektów inicjuje, przygotowuje i prowadzi projekty badawczo-rozwojowe, w tym projekty międzynarodowe (np. H2020) oraz projekty realizowane dla przedsiębiorstw.


Przetwarzanie strumieni danych: metody, środowiska obliczeniowe, wyzwania
sobota, 24 marca, godz. 15:45 - 16:30
Przez wiele lat jednym z kluczowych wyzwań w analizie danych i uczeniu maszynowym była niewielka liczność wykorzystywanych zbiorów danych. W ostatnim czasie, dostępność danych zmieniła się diametralnie, a okresowo pozyskiwane statyczne zbiory danych często są zastępowane strumieniami danych pozyskiwanymi w trybie ciągłym. Rosnący wolumen dostępnych danych zaowocował nowymi platformami składowania danych, środowiskami analizy strumieni danych, jak również rozwojem metod uczenia maszynowego stosowanych w trybie strumieniowym. W referacie przedstawione zostaną kluczowe rozwiązania metod strumieniowej analizy danych z perspektywy złożonych projektów informatycznych. Realizacja takich projektów wymaga użycia nowych metod uczenia maszynowego i nowych zasad oceny tych metod. Powyższe zagadnienia zostaną przedstawione na przykładzie zadań podejmowanych w międzynarodowym projekcie H2020 ICT-16 Big Data VaVeL Variety, Veracity, VaLue: Handling the Multiplicity of Urban Sensors, realizowanym z udziałem Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej.

Rozwiń

Dr Piotr Krzyżanowski

Dr Piotr Krzyżanowski pracuje na Uniwersytecie Warszawskim w Instytucie Matematyki Stosowanej. Autor książki o praktyce scientific computing "Obliczenia naukowe. Skuteczne, szybkie, efektowne" (PWN 2011) oraz kilku podręczników online na temat metod numerycznych. Naukowo zajmuje się algorytmami numerycznej algebry liniowej oraz metodami rozwiązywania równań różniczkowych na równoległych komputerach. Uwielbia słuchać historii o tym, jak lekkomyślnie użyte pakiety obliczeniowe wyprodukowały fałszywe wyniki.


SiM: związek krzemu i matematyki
niedziela, 25 marca, godz. 10:00 - 10:45
Znaczącą część swojego czasu superkomputery spędzają na rozwiązywaniu układów równań liniowych. Specyficzna postać tych równań może być źródłem doznań estetycznych, ale także drogą ku bardzo szybkim algorytmom. Przedstawię kilka skutecznych metod rozwiązywania takich zadań, wszystkie oparte na wykorzystaniu klasycznego ,,dziel i rządź'' w połączeniu z całkiem ciekawą matematyką.

Rozwiń


Dr hab. inż. Marek Gągolewski, prof. PW

Prof. Marek Gągolewski (Wydział Matematyki i Nauk Informacyjnych Politechniki Warszawskiej i Instytut Badań Systemowych PAN) w swej pracy naukowej zajmuje się tworzeniem i badaniem nowych algorytmów agregacji, fuzji i analizy danych, uczeniem maszynowym, statystyką obliczeniową i systemami wspomagania decyzji. Jest autorem lub współautorem ponad 50 publikacji naukowych, a także laureatem stypendium MNiSW i Fundacji na Rzecz Nauki Polskiej dla wybitnych młodych naukowców.

Na wydziale MiNI prowadzi m.in. zajęcia z programowania systemów przetwarzania i analizy danych. Jest autorem podręczników Programowanie w języku R (PWN, 2016, wyd. 2) i Przetwarzanie i analiza danych w języku Python (PWN, 2016). Prowadzi bogatą działalność szkoleniową i mentorską, np. dla Data Science Retreat w Berlinie oraz Google Summer of Code. Ponadto jest aktywnie zaangażowany w rozwijanie oprogramowania open source, np. jego pakiet stringi znajduje się w czołówce najczęściej pobieranych rozszerzeń dla środowiska R.


Algorytmy analizy skupień oparte na MST (Clustering on MSTs)
niedziela, 25 marca, godz. 10:00 - 10:45
Cluster analysis is one of the most commonly applied unsupervised machine learning techniques. Its aim is to automatically discover an underlying structure of a data set represented by a partition of its elements: mutually disjoint and nonempty subsets are determined in such a way that observations within each group are “similar” and entities in distinct clusters “differ” as much as possible from each other.
It turns out that two state-of-the-art clustering algorithms -- namely the Genie and HDBSCAN* methods -- can be computed based on the minimum spanning tree (MST) of the pairwise dissimilarity graph. Both of them are not only resistant to outliers and produce high-quality partitions, but also are relatively fast to compute.
The aim of this tutorial is to discuss some key issues of hierarchical clustering and explore their relations with graph and data aggregation theory.

Rozwiń

Organizatorzy





Koło Naukowe Modelowania Matematycznego


MI2 DataLab


Zarząd Samorządu Studentów MIM UW




Wydziałowa Rada Samorządu Studentów MiNI PW


Koło Naukowe Data Science

To my!

Komitet organizacyjny

Kamil Wołos - Przewodniczący Komitetu Organizacyjnego
Alicja Gosiewska - Koordynator Główny (MI2 DataLab)
Krzysztof Spaliński - Koordynator Główny (MIM UW)
dr inż. Łukasz Błaszczyk
Maria Czaplicka
Magdalena Grodzińska
Aleksandra Grudziąż
Krzysztof Jahn
Kinga Jamróz
Małgorzata Łazęcka
Władysław Olejnik
Aleksandra Strączyńska
Michał Suchoński
Karol Talarek

Komisja programowa

prof. dr hab. Krzysztof Chełmiński (MiNI PW)
prof. dr hab. Przemysław Grzegorzewski (MiNI PW, IBS PAN)
dr hab. inż. Marek Gągolewski, prof. PW (MiNI PW, IBS PAN)
dr hab. Monika Piotrowska (MIM UW)
dr Piotr Krzyżanowski (MIM UW)
dr inż. Łukasz Błaszczyk (MiNI PW)

Partnerzy


Mateusz Tarkowski

Mateusz Tarkowski pracuje jako Data Scientist w BCG Gamma (The Boston Consulting Group). Stopień doktora zdobył na Uniwersytecie Oksfordzkim, gdzie zajmował się centralnością w sieciach, przewidywaniem połączeń między wierzchołkami i kooperacyjną teorią gier. Jest również absolwentem Wydział Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego. Praca doktorska oraz publikacje naukowe Mateusza są w dziedzinie centralności w sieciach opartych o teorię gier.


Projekty BCG Gamma
sobota, 24 marca, godz. 12:30 - 13:30
Podczas prezentacji przedstawimy Wam dwa projekty realizowane przez konsultantów BCG Gamma. W pierwszym, zrealizowanym dla globalnej firmy transportowej, zoptymalizowaliśmy trasy kontenerów. Stworzone przez nas rozwiązania zarządzają transportem około miliona kontenerów miesięcznie. Drugi projekt dotyczy ustalania cen dla firmy ubezpieczeniowej. Zaprojektowany model przewiduje churn, elastyczność cenową i koszt obsługi klienta.Wykład będzie szczególnie wartościowy dla uczestników zainteresowanych zastosowaniami matematyki i sztucznej inteligencji w biznesie.

Rozwiń





Wojciech Regulski

Wojciech Regulski zajmuje się symulacjami w mechanice płynów (CFD) od czasu studiów inżynierskich na Wydziale Mechanicznym Energetyki i Lotnictwa PW. Z początku miał do czynienia z metodami spektralnymi, jednak jego kariera naukowa skręciła w stronę Metody Gazu Sieciowego Boltzmanna (lattice Boltzmann method, LBM). Symulacje przepływów przez ośrodki porowate za pomocą LBM stały się tematem jego rozprawy doktorskiej a podczas pobytu w Australii rozwijał LBM dla płynów lepkoplastycznych na potrzeby branży Oli&Gas. W trakcie pobytu na antypodach wraz z Bartoszem Góreckim założyli firmę QuickerSim, która zajmuje się rozwojem oprogramowania do CFD jako wtyczki do MATLABa.


Solwer QuickerSim CFD Toolbox for MATLAB®
piątek, 23 marca, godz. 17:00 - 17:45
Tematem referatu jest solwer do symulacji cieplno-przepływowych QuickerSim CFD Toolbox for MATLAB®. Solwer powstał w oparciu o Metodę Elementów Skończonych. Na wstępie zaprezentujemy typowe sformułowanie słabe dla równań transportu (równanie adwekcji-dyfuzji, równanie Naviera-Stokesa i ich pochodnych) oraz pokażemy szereg typowych problemów natury numerycznej spotykanych w takich zagadnieniach. Następnie omówimy kilka inżynierskich przykładów obliczeniowych z przepływów laminarnych, turbulentnych (równania typu RANS), wymiany ciepła, płynów nieniutonowskich, a także nielepkich przepływów ściśliwych (równania Eulera). Ponadto dotkniemy kilku aspektów związanych z algorytmicznym przyspieszeniem oraz paralelizacją obliczeń. W podsumowaniu przedstawimy jak solwer może wpisywać się w dydaktykę oraz badania naukowe w oparciu o kilka dotychczasowych przykładów.

Rozwiń



Patroni

JM Rektor Uniwersytetu Warszawskiego
dr hab. Marcin Pałys, prof. UW

Minister Nauki i Szkolnictwa Wyższego
Jarosław Gowin

Politechnika Warszawska

Instytut Badań Systemowych
Polskiej Akademii Nauk

Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego
Uniwersytetu Warszawskiego

Centrum Studiów Zaawansowanych
Politechniki Warszawskiej

Dyrektor Instytutu Matematycznego Polskiej Akademii Nauk
prof. dr hab. Feliks Przytycki

Wspierają nas



Fundacja Naukowa SmarterPoland.pl


Szkoły Matematyki Poglądowej



Ogólnopolska Matematyczna Konferencja Studentów


Sympozjum Fizyki Interdyscyplinarnej w Naukach Ekonomicznych i Społecznych


Miesięcznik "Delta"

Kontakt

E-mail

W razie pytań zapraszamy do korespondecji z organizatorami przez e-maila: dwumian@mini.pw.edu.pl

Facebook

Znajdziecie nas także na Facebooku – DwuMIan