Informacje

Poniedziałki, o godz. 13:00

sala seminaryjna

ul. Jana Kazimierza 5


e-mail: Ten adres pocztowy jest chroniony przed spamowaniem. Aby go zobaczyć, konieczne jest włączenie obsługi JavaScript.

Archiwum Seminarium
Instytutowego

2014/2015

2013/2014

2012/2013

2011/2012

2010/2011

2009/2010

2008/2009

2007/2008

2006/2007

2005/2006

Archiwum Seminarium
Doktoranckiego

2004/2005

2003/2004

2002/2003

2001/2002

Seminaria

godz. 13:30, prof. dr hab. Jan Mielniczuk (IPI PAN)

Selekcja zmiennych w wysokowymiarowych problemach regresyjnych

Dla przypadku danych wysokowymiarowych, dla których liczba predyktorów jest większa od liczby obserwacji, rozważymy problem konstrukcji rzadkiego modelu predykcyjnego, czyli prostej i jednocześnie silnej zależności między małą liczbą predyktorów a zmienną zależną y.
Istotną trudnością jest tu złe uwarunkowanie problemu oraz częste wzajemne skorelowanie predyktorów, co powoduje, że filtracje oparte na sile zależności indywidualnych predyktorów z y nie prowadzą do satysfakcjonujących rozwiązań. Jedną z możliwości stanowią metody wykorzystujące maksymalizację funkcji wiarogodności z karą indukującą rzadkość, takie, jak LASSO.
Obecnie wiadomo, że LASSO wybiera zbyt duży zbiór zmiennych aktywnych, oraz że zmienne nieaktywne mogą być włączane do modelu przed zmiennymi aktywnymi. Problem ten usiłuje się rozwiązać przy użyciu innych kar, w tym kar quasi-wypukłych FCP.
W referacie przedstawię podejście SOS (Screening-Ordering-Selection), oparte na wstępnym wyborze zmiennych przy użyciu LASSO, dopasowaniu małego modelu używającego wybranych zmiennych, oraz wyborze ostatecznego zbioru zmiennych, które wykorzystuje uogólnione kryteria informacyjne. Skupię się przede wszystkim na omówieniu zależności liniowych i odpowiedzi ilościowej, omawiając jednak krótko sytuację odpowiedzi binarnej i złej specyfikacji modelu.
Omawiane wyniki pochodzą z wspólnych prac z Piotrem Pokarowskim, Pawłem Teisseyre i Mariuszem Kubkowskim.

godz. 13:00, Jacek Koronacki (IPI PAN)

Analiza danych o wielkim wymiarze

Rozwój technologii teleinformatycznych sprawia, że możemy utonąć w powodzi danych. Ale możemy też z tej powodzi starać się wydobywać nową i wartościową wiedzę. Na przykład niezwykle rozwinęły się biotechnologie pozwalające na zbieranie masowych danych o żywych komórkach. Wyzwanie, jakie się za tym od początku kryło, brało się stąd, że typowe dane w takich zastosowaniach biologicznych charakteryzowały się małą liczbą obserwacji (obiektów) – np. rzędu dziesiątków lub setek – z których każda opisana była tysiącami lub większą liczbą atrybutów (cech). Dobrymi i ważnymi przykładami problemów tego typu były dane mikromacierzowe, dotyczące tzw. ekspresji genów, lub dane proteomiczne. Z czasem badania tego typu przyniosły większe liczby obserwacji, ale też jeszcze większe liczby atrybutów opisujących te obserwacje. W ramach wykładu, w jego zasadniczej części, przedstawiony zostanie stan badań w obszarze uczenia pod nadzorem w opisanej sytuacji.

W drugiej, znacznie krótszej, części wykładu spojrzymy ze statystycznej – i w jakiejś mierze filozoficznej – perspektywy na problem szerszy, a mianowicie analizy zbiorów danych zwanych po angielsku „Big Data”.

Koronacki

godz. 13:00, Paweł Teisseyre (IPI PAN)

Selekcja zmiennych w klasyfikacji z wieloma etykietami

Referat dotyczy metod selekcji zmiennych dla klasyfikacji wieloetykietowej (KW) w sytuacji danych o dużym wymiarze. W ostatnich latach problem KW wzbudził bardzo duże zainteresowanie w wielu dziedzinach, takich, jak automatyczna anotacja obrazów (przewidywanie, jakie obiekty znajdują się na zdjęciu w oparciu o pewne cechy obrazu cyfrowego), kategoryzacja tekstów (przewidywanie, jakich tematów dotyczy tekst w oparciu o cechy używanego języka), marketing (przewidywanie kupowanych produktów w oparciu o pewne cechy klientów) i medycyna (przewidywanie, które choroby występują jednocześnie, na podstawie pewnych cech pacjentów). Jednym z podstawowych zadań w KW jest umiejętne wykorzystanie zależności między etykietami, co pozwala osiągnąć znacznie lepsze rezultaty niż "naiwna" metoda, w której budujemy oddzielnie klasyfikator dla każdej etykiety (nie biorąc pod uwagę zależności między odpowiedziami). W ostatnich latach opracowano szereg metod umożliwiających predykcję dla wielu etykiet jednocześnie. Większość metod bazuje na wykorzystaniu zależności między etykietami. Brakuje jednak wyników (zarówno teoretycznych, jak i empirycznych), które pokazują, jaki jest wpływ wyboru zmiennych na działanie klasyfikatorów. W referacie przedstawię metodę która umożliwia jednoczesną predykcję etykiet i selekcję istotnych zmiennych. Metoda ta wykorzystuje łańcuchy klasyfikatorów i sieć elastyczną.

Teisseyre

godz. 13:00, Stanisław Matwin (IPI PAN oraz Dalhousie University, Kanada)

Big Data: status quo + quo vadis

Na wstępie prezentacji zarysuję historię Big Data i jej składowych technologii. Podejmę próbę określenia pojęcia Big Data nieco różnego od klasycznej definicji "4V". Propozycja ta zostanie zilustrowana krótkim przeglądem danych wydających się spełniać wszelkie definicje Big Data, a dotyczących eksploatacji mórz i oceanów. Przedstawię bieżace prace nad metodami analizy tych danych (z naciskiem na metody maszynowego uczenia się ), prowadzone obecnie w Institute for Big Data Analytics, Dalhousie University. Pod koniec prezentacji zarysuję i podam pod dyskusję kilka zagadnień stanowiących – w mojej opinii - zasadnicze wyzwania, zarówno techniczne jak i społeczne, stojące przed Big Data.

Stanisław Matwin jest Profesorem oraz “Canada Research Chair” w Faculty of Computer Science, Dalhousie University, Halifaks, Kanada. Dyrektor Institute for Big Data Analytics, pierwszej tego typu placówki naukowej w Kanadzie. Były prezes Canadian Artificial Intelligence Society. Członek Rady Naukowej Polskiego Stowarzyszenia Sztucznej Inteligencjii, od pięciu lat prowadzi konkurs PSSI na najlepszą polską dysertację doktorską z tej dziedziny. Posiada m. in. tytuł ECCAI Fellow. Jego zainteresowania badawcze obejmują tematykę analizy danych tekstowych, eksploracji danych, oraz prywatności danych.

Dalhousie University Halifax, N.S.

Matwin

godz. 13:20, Łukasz Dębowski (IPI PAN)

Uogólnienie entropii i informacji wzajemnej na przypadek dość dowolnych sigma-ciał

W standardowych podręcznikach teorii informacji (Cover i Thomas 1991) pojęcie entropii i informacji wzajemnej wprowadza się dla zmiennych dyskretnych. W analizie procesów dyskretnych, czyli nieskończonych ciągów zmiennych dyskretnych, przydatne jest jednak uogólnienie entropii i informacji wzajemnej na przypadek dowolnych zmiennych losowych. Bliższa analiza tych pojęć wskazuje, że wygodnie jest definiować jest je nie dla zmiennych losowych, lecz dla sigma-ciał generowanych przez te zmienne. W referacie omówię, jak takie uogólnienie skonstruować w przypadku wystarczającym w analizie procesów dyskretnych. Przedstawione ujęcie jest twórczym rozwinięciem podejścia zaproponowanego w pracach Gelfanda, Kołmogorowa i Jagłoma (1956) i Dobruszyna (1959). Pokażę także przykład zastosowania uogólnionej entropii i informacji wzajemnej do rozkładu ergodycznego entropii nadwyżkowej, który ma pewien związek z językiem naturalnym.

Debowski

godz. 13:00, Łukasz Maśko (IPI PAN)

Monitorowanie globalnych stanów aplikacji w równoległej symulacji sterowanej zdarzeniami

Problem rozpoznawania i wykorzystania poprawnie określonych globalnych stanów rozproszonych aplikacji programowych jest jednym z podstawowych elementów algorytmiki obliczeń rozproszonych. Stany globalne mogą stanowić podstawę dla asynchronicznego sterowania i optymalizacji wykonania aplikacji rozproszonych. Jednakże detekcja stanów globalnych we współczesnych systemach rozproszonych jest utrudniona ze względu na brak synchronizacji zegarów procesorów i niedeterministyczne opóźnienia komunikatów o stanach lokalnych składowych aplikacji.

Symulacja sterowana zdarzeniami (ang. Discrete-Event Simulation, DES) jest znaną techniką używaną dla badania zachowań złożonych systemów równoległych. Symulacja tego typu może być wykonywana zarówno w sposób szeregowy, jak i równoległy. Równoległą symulację sterowaną zdarzeniami (ang. Parallel DES, PDES) dzielimy na symulację pesymistyczną, która wymaga ścisłej synchronizacji zegarów w symulowanych elementach, oraz optymistyczną (metoda "Time Warp"), w której zezwala się na niezależny postęp symulacji w równolegle symulowanych elementach.

Seminarium przedstawia nowe podejście do ulepszenia sterowanej zdarzeniami równoległej symulacji optymistycznej poprzez zastosowanie monitorowania stanów globalnych aplikacji rozproszonych. Obserwacja stanów globalnych rozproszonego programu symulatora ułatwia zastosowanie takich technik optymalizacji realizacji symulacji równoległej, jak równoważenie obciążeń procesorów czy kontrola postępu zegarów symulowanego systemu. Podczas seminarium przybliżony zostanie problem detekcji globalnych silnie spójnych stanów aplikacji oraz ich zastosowanie do asynchronicznego sterowania wykonaniem aplikacji równoległej. Przedstawione zostaną dotychczasowe prace nad zastosowaniem monitorowania globalnych stanów aplikacji w metodzie Time Warp oraz przebieg dalszych prac związanych z proponowanym podejściem.

Masko

godz. 13:00, Eryk Laskowski (IPI PAN)

Zastosowanie Optymalizacji Ekstremalnej do równoważenia obciążenia procesorów w systemach rozproszonych

Optymalizacja Ekstremalna (ang. Extremal Optimization, EO) jest efektywną metaheurystyką optymalizacyjną, należącą do dziedziny metod ewolucyjnych. Charakteryzuje się niską złożonością czasową i pamięciową, i jest szczególnie przydatna do rozwiązywania problemów optymalizacji kombinatorycznej. Referat przedstawi prace dotyczące zarówno zastosowania metody EO do rozwiązywania złożonych problemów równoważenia obciążeń procesorów obliczeniowych w systemach rozproszonych, jak również rozwinięcia samej metody EO, opracowane w ostatnim czasie w ZAK IPI. Zaprezentowany zostanie algorytm Optymalizacji Ekstremalnej ze Sterowaną Zmianą Stanu (ang. Extremal Optimization with Guided Search, EO-GS), który jest efektywnym rozszerzeniem klasycznej metody EO o zmianę stanów systemu sterowaną wiedzą dziedzinową (w miejsce całkowicie losowej zmiany stanu stosowanej w oryginalnej metodzie EO).

Metaheurystyka EO-GS została zastosowana w nowym algorytmie równoważenia obciążenia procesorów w systemie rozproszonym. Algorytm ten zaimplementowano w symulatorze rozproszonego systemu równoległego SimDevs, działającym w oparciu o formalizm DEVS. Kolejnym etapem badań było opracowanie równoległej Optymalizacji Ekstremalnej (ang. Parallel Extremal Optimization). W ramach tych badań rozwinięto ogólną metodologię zrównoleglenia algorytmu EO i zidentyfikowano różne warianty równoległego przeszukiwania przestrzeni rozwiązań w algorytmie EO i EO-GS.

Zaproponowane algorytmy zostały poddane badaniom eksperymentalnym, polegającym na równoważeniu obciążenia w trakcie symulowanego wykonywania aplikacji rozproszonych.

Laskowski

godz. 13:00, Michał Knapik (IPI PAN)

Metoda nie-planów w planowaniu abstrakcyjnym

Zaprezentujemy nową metodę redukcji przestrzeni planów w dziedzinie obiektowej. Pierwotną motywacją naszej pracy była chęć usprawnienia syntezy zbioru wszystkich sposobów kompozycji usług sieciowych w ramach systemu PlanICS. W uproszczonej, abstrakcyjnej wersji, kompozycja usług zakłada iż żadne obiekty nie są zużywane: np. zasoby spożytkowane w celu wyprodukowania pojazdu mogą posłużyć produkcji kolejnego. Jak się okazuje, pozwala to na liniową i monotoniczną reprezentację planów kompozycji. Pokazujemy, jak dokonać w uproszczonej, liniowej dziedzinie planowania syntezy zbiorów usług, które nie mogą być nośnikiem żadnego planu w dziedzinie pierwotnej. Zbiory te nazywane przez nas 'nie-planami', pozwalają na znaczną redukcję przestrzeni przeszukiwania w dziedzinie pierwotnej. Metoda cechuje się pewną ogólnością i może być stosowana jako heurystyka przy analizie wielu problemów trudnych.

Knapik

godz. 13:00, Józef Pieprzyk (prof. wizytujący IPI PAN)

Quo Vadis Cryptology

The talk overviews recent developments in Cryptology with a commentary about the future research directions. The seminar consists of four parts: private-key cryptography, public-key cryptography, multiparty computations and introduction to cryptanalysis (if time permits). The private-key cryptography covers history behind development of DES and cryptographic competitions that include AES, SHA-3 and CAESAR. The public-key cryptography starts from the Diffie-Hellman key agreement, ElGamal and RSA schemes. Bilinear pairing is introduced and its applications briefly discussed. We also define certificateless public-key and NTRU public-key schemes. This part is concluded by discussion on homomorphic encryption. Next we introduce MPC, its security models and solutions. The last part shows main analytical tools needed to evaluate security of cryptographic systems. This includes linear, differential, and algebraic cryptanalyses and cube attack.
Referat zostanie wygłoszony w j. angielskim

Pieprzyk

godz. 13:00, Stanisław Ambroszkiewicz (IPI PAN)

O podstawach Informatyki, konkretnie: od Maszyny Turinga do współczesnych funkcyjnych języków programowania

Wydawałoby się, że w Podstawach Informatyki jest wszystko jasne. Tak jest dla obliczeń na prostych typach.
Czym są obliczenia na obiektach wyższych rzędów, np. funkcjach, funkcjonałach czy relacjach? Są one wtedy traktowane jako obiekty i mogą być argumentami jeszcze wyższych funkcji i relacji. Nie jest to tylko problem teoretyczny. Programiści chcą używać i używają(?) takich obiektów w praktyce programowania, np. języki funkcyjne (np. Haskell, Coq CoIC), programowanie strukturalne, generic programing. Jaki jest współczesny paradygmat w Informatyce?
Jeśli chodzi o architekturę komputera i języki programowania, to według John Backus (1977 ACM Turing Award lecture ``Can Programming Be Liberated from the von Neumann Style?''), paradygmat ten polega na izomorfizmie pojęciowym pomiędzy architekturą komputera według von Neumanna (jedyna jaka jest) a językami programowania. Języki programowania są abstrakcyjną (na wyższym poziomie abstrakcji) kopią komputera von Neumanna.
Jeśli chodzi o programowanie na obiektach wyższych rzędów, to ten paradygmat sprowadza się do tzw. ``lazy evaluation'', czyli do symbolicznego przetwarzania termów (nazw) odnoszących się od tych obiektów. Czy można przełamać ten paradygmat?

Ambroszkiewicz

Małgorzata Marciniak, Agnieszka Mykowiecka, Piotr Rychlik (IPI PAN)

Ekstrakcja terminologii z tekstów w języku polskim – program TermoPL

Na seminarium Autorzy omówią zagadnienia ekstrakcji terminologii z korpusów tekstów w języku polskim oraz przedstawią program TermoPL, w którym zaimplementowane zostały zaproponowane rozwiązania. W omawianych pracach stosują oni metodę C-value, która ustala istotność terminów na podstawie ich częstości i liczby kontekstów. Metoda ta uwzględnia terminy zagnieżdżone – czyli takie, które są zawarte w dłuższych terminach. Niekiedy prowadzi to do ekstrakcji niepoprawnych semantycznie fraz (np. 'giełda papierów', 'USG jamy'). W celu eliminacji tego typu terminów Autorzy zaproponowali metodę, która w procesie wyodrębniania zagnieżdżonych fraz kieruje się siłą powiązań między słowami.

Marcniak Mykowiecka Rychlik

Andrzej Wieczorek (IPI PAN)

Statyczne duże gry: przegląd wyników

Duże gry są narzędziem do badania modeli z zakresu tematyki ekonomicznej, społecznej, inżynieryjnej, biologicznej i nie tylko. Szczególnie przydatne są w sytuacjach, kiedy liczba decydentów (graczy) jest bardzo duża, a szczegółowe opisanie ich charakterystyk jest niecelowe lub niemożliwe - dostępne są tylko dane zagregowane. Gry takie odpowiadają sytuacjom, gdy pojedynczy gracze nie mają wpływu na ogólną sytuację.

Oprócz definicji i podstawowych własności dużych gier, przedstawione zostaną przykłady dotyczące alokacji przestrzennej jednego gatunku, gospodarki drobnotowarowej i optymalizacji ruchu drogowego.

godz. 13:00 Prof. Bogdan M. Wilamowski (Auburn University, USA, oraz IPI PAN)

Learning architectures and training algorithms - comparative studies

 The traditional approach for solving complex problems and processes usually follows the following steps: At first we are trying to understand them, and then we are trying to describe them in the form of mathematical formulas. This classical Da Vinci approach was used for the last several centuries, and unfortunately it cannot be applied for many current complex problems. These problems are very difficult to understand and process by humans. Notice that many environmental, economic, and often engineering problems cannot be described by equations, and it seems that adaptive learning architectures are the only solution to tackling these complex problems. Many smaller scale problems were already solved using shallow architectures such as ANN, SVM, or ELM. However, for more complex problems, more deep learning systems with enhanced capabilities are needed.

It has already been demonstrated that much higher capabilities of super compact architectures have 10 to 100 times more processing power than commonly used learning architectures like MLP. It is possible to train them very efficiently if the network is shallow like SVM or ELM. It turns out that the power of learning systems grows linearly with their widths and exponentially with their depth. For example, such a shallow MLP architecture with 10 neurons can solve only a Parity-9 problem, but a special deep FCC architecture with the same 10 neurons can solve as large a problem as a Parity-1023. Therefore, a natural approach would be to use these deep architectures. Unfortunately, because of the vanishing gradient problem, these deep architectures are very difficult to train, so a mixture of different approaches is used with a partial success. Until now, it is assumed that it is not possible to train neural networks with more than 6 hidden layers. We have demonstrated that it is possible to efficiently train much deeper networks. This became possible by the introduction of additional connections across layers and to use our new very powerful NBN algorithm.