Przez dziesięciolecia największe komputery znajdowały się w akademickich i militarnych centrach obliczeniowych i służyły do rozwiązywania problemów technicznych i naukowych przy użyciu zaawansowanych metod obliczeniowych. Dostęp do tych komputerów ograniczony był do wąskiego grona wysoko wykwalifikowanych fachowców. Dzisiaj zasoby obliczeniowe w największych naukowych i militarnych centrach obliczeniowych są znikome wobec mocy obliczeniowych udostępnianych szerokiej publiczności przez chmury firm takich jak Google czy Amazon. Chmury obliczeniowe zmieniają również sposób działania branży IT i branż powiązanych — zarówno ze względu na nowe możliwości, jak i związane z nimi wyzwania i zagrożenia. Konferencja ma na celu przedstawienie możliwości i wyzwań związanych z chmurami obliczeniowymi dla biznesu, nauki, edukacji. Zapraszamy do wzięcia udziału w konferencji reprezentantów środowiska akademickiego — pracowników naukowych i studentów, a także przedstawicieli środowiska biznesowego, sektora publicznego i edukacyjnego.
O konferencji (i chmurach) można było posłuchać w Radiu Białystok: link do nagrań audycji.
Profesor w Instytucie Informatyki Uniwersytetu Warszawskiego oraz naukowiec wizytujący w Google Polska. W 2004 roku ukończył Politechnikę Warszawską. W 2008 doktoryzował się jednocześnie na Politechnice w Grenoble i Polsko-Japońskiej Wyższej Szkole Technik Komputerowych. Podczas studiów doktoranckich był stypendystą rządu francuskiego (program co-tutelle). Pracował jako post-doc w Nanyang Technological University (NTU) w Singapurze. Uzyskał granty z Narodowego Centrum Nauki, Fundacji na rzecz Nauki Polskiej oraz z Google’a. Pracuje nad alokacją zasobów i szeregowaniem w systemach rozproszonych dużej skali.
Profesor i dyrektor Centrum Cyfrowej Nauki i Technologii na Uniwersytecie Kardynała Stefana Wyszyńskiego w Warszawie. Matematyk, informatyk, absolwent Politechniki Warszawskiej, stypendysta fundacji Humboldta, habilitacja z Uniwersytetu w Augsburgu. Twórca i wieloletni dyrektor Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego na Uniwersytecie Warszawskim (ICM). Pomysłodawca projektu Biblioteki Wirtualnej Nauki realizowanego przez ICM. Propagator idei otwartej nauki. Stały przedstawiciel Polski w Unii Europejskiej w Zespole Doradczym ds. Strategii Rozwoju eInfrastructures.
Profesor Uniwersytetu w Białymstoku, dyrektor Uniwersyteckiego Centrum Obliczeniowego UwB, profesor afiliowany, a wcześniej wieloletni pracownik ICM UW. Absolwent Uniwersytetu Łódzkiego (fizyka), doktorat na Uniwersytecie Warszawskim (biofizyka), habilitacja w Instytucie Badań Systemowych (IBS) PAN (informatyka). Członek–założyciel Polskiego Towarzystwa Bioinformatycznego, prezes PTBI przez dwie kadencje. Naukowo zajmuje się rozwojem metod uczenia maszynowego i ich zastosowaniami do rozwiązywania problemów z pogranicza biologii molekularnej i medycyny.
Administrator sieci i systemów oraz programista w Uniwersyteckim Centrum Obliczeniowym Uniwersytetu w Białymstoku. Laureat konkursu Karierosfera w dziedzinie zarządzania infrastrukturą IT. Laureat Białostockiego Testu Informatyków. Certyfikowany inżynier systemów Red Hat i specjalista Ansible. Certyfikowany administrator OpenStack. Aktywny kontrybutor w otwartoźródłowych projektach OpenStack — implementacji chmury we własnym centrum danych. Core reviewer w projekcie Kolla. Posiada szerokie doświadczenie w projektowaniu i integracji systemów.
Wiceprezes 7bulls.com oraz wieloletni pracownik ICM UW. Posiada szerokie doświadczenie w zakresie rozwiązań machine learning, współtwórca i lider merytoryczny zespołu opracowującego takie rozwiązania dla czołowych firm światowych. Brał udział w pracach badawczych w projektach polskich i międzynarodowych w zakresie systemów komputerowych o wysokiej mocy przetwarzania i technologii AI. Odpowiadał ze tworzenie i wdrażanie oprogramowania wykorzystującego zaawansowane modele Cloud Computing w dużych firmach i organizacjach.
Doświadczony architekt rozwiązań IT, w szczególności w obszarze przetwarzania dużych zbiorów danych i rozwiązań machine learning. W latach 2006 – 2015 współtworzył architekturę rozwiązań systemów informatycznych w Grupie Cyfrowy Polsat. W latach 2016-2020 realizuje złożone projekty w obszarze Cloud Computing i AI. Certyfikowany architekt i developer AWS, posiadający szerokie doświadczenie w projektowaniu zaawansowanych rozwiązań AI wykorzystujących architekturę Cloud Computing.
Specjalista w firmie Transition Technologies PSC. Od ponad 11 lat prowadzi złożone projekty marketingowe. Wcześniej pełnił funkcje Media Directora w domu mediowym Mconnection, Media Managera w agencji reklamowej dotthe.it oraz Marketing Managera w firmie hostingowej Kylos. Współpracował m.in. z FujiFilm, Aflofarm, Shimano oraz BNP Paribas. Pasjonat technologii oraz obserwator rynku cloud, którym zawodowo zajmuje się od 4 lat. Organizator konferencji i warsztatów poświęconych cloud. Autor wielu artykułów poruszających tematykę chmury.
Adiunkt na Wydziale Ekonomii i Finansów Uniwersytetu w Białymstoku. W pracy naukowej zajmuje się tematyką otwartych innowacji, w tym szczególnie innowacjami cyfrowymi, cyfrowymi modelami biznesowymi i strategią zarządzania w warunkach gospodarki cyfrowej. Head of Innovation and Partner Program w firmie Elastic Cloud Solution, uznanej przez Rzeczpospolitą za najlepszy polski start-up roku 2018. Stypendystka Uniwersytetu Pekińskiego, Uniwersytetu Humboldta oraz Funduszu Wyszehradzkiego.
Witold Rudnicki, Uniwersytet w Białymstoku
Witold Rudnicki, Uniwersytet w Białymstoku
Referat będzie poświęcony prezentacji oferty UCO dla środowiska akademickiego, biznesowego a także społecznego. W środowisku akademickim chmury obliczeniowe mogą być wykorzystane do prowadzenia badań naukowych z wykorzystaniem technologii informacyjnych przez badaczy spoza tradycyjnego środowiska nauk obliczeniowych, udostępniania danych badawczych w modelu FAIR, do innowacyjnego prowadzenia zajęć dydaktycznych. Model chmurowy dostępu do zasobów daje szanse na stworzenie nowych sposobów współpracy z UCO, wykorzystania infrastruktury informatycznej na potrzeby projektów badawczo–rozwojowych z udziałem partnerów biznesowych i publicznych.
Łukasz Kwaśniewicz, Transition Technologies PSC
Do tego, że chmura zmienia świat, nie trzeba już nikogo przekonywać. Jej użycie stało się powszechne, a sformułowanie „wrzucę to w chmurę” bardzo szybko weszło do języka potocznego. Jednak czy chmura zawsze oznacza to samo? W mojej prezentacji wrócę do jej korzeni, wyjaśniając, czym jest oraz dlaczego zdobyła taką popularność. Opowiem o typach chmur i o tym, czym się charakteryzują. Uczestnicy dowiedzą się również, jak wygląda użycie technologii chmurowych i jakie są prognozy dla ich rozwoju na świecie.
Radosław Piliszek, Uniwersytet w Białymstoku
Chmura. Echo tego marketingowego pojęcia brzmi nieprzerwanie do dziś i każdemu użytkownikowi technologii cyfrowych przywodzi na myśl różne technologiczne skojarzenia. Czy oddają one pełnię chmurowego krajobrazu? Podczas tego krótkiego referatu przybliżone zostanie pojęcie chmury z perspektywy różnych ról — zarówno użytkownika chmury, jej administratora jak i operatora. Zostanie wyjaśniony sposób klasyfikacji chmur ze względu na oferowaną funkcjonalność oraz sposób jej dostarczania. Przybliżony zostanie również projekt OpenStack i możliwości, jakie daje operatorom chmury.
Krzysztof Rządca, Uniwersytet Warszawski & Google
Wysyłając zadanie do obliczenia w chmurze, użytkownik określa górne limity zasobów, które to zadanie może wykorzystać. Niestety, ludziom przewidywać jest trudno, a już szczególnie trudno jest przewidzieć przyszłe użycie niematerialnych zasobów, takich jak rdzenie procesora czy gigabajty pamięci. Zbyt małe limity mogą mieć konsekwencje katastrofalne. Dlatego operatorzy zwykle zostawiają „bezpieczne” marginesy błędu. W skali całej infrastruktury, te „bezpieczne” marginesy skutkują niskim wykorzystaniem sprzętu, a więc znaczącymi kosztami utrzymania i rozwoju przeskalowanej infrastruktury. Podczas mojej prezentacji opowiem o Autopilocie, narzędziu, które Google używa w wewnętrznej chmurze. Autopilot ustawia limity zasobów na podstawie historycznego użycia, łącząc proste heurystyki i maszynowe uczenie się. Autopilot pozwala znacząco zmniejszyć ilość niepotrzebnie zablokowanych zasobów, jednocześnie znacząco zwiększając niezawodność zadań.
Konrad Wawruch, 7bulls.com
W ramach prezentacji zostaną omówione nowoczesne modele wykorzystania zasobów chmurowych typu hybrid, cross i multicloud, wraz ze wskazaniem ich zalet i potencjalnych problemów z użyciem. Następnie zostanie zaprezentowana platforma MELODIC stworzona w ramach projektu Horizon 2020 MELODIC. Zostaną pokazane korzyści z wykorzystania i optymalizacji zasobów chmurowych na przykładzie zaawansowanych, wymagających obliczeniowo aplikacji opartych na machine learning.
Paweł Skrzypek, AI Investments
W ramach prezentacji zostanie przedstawiony przypadek firmy AI Investments zajmującej się optymalizacją portfeli inwestycyjnych przy użyciu metod machine learning. AI Investments wykorzystuje zaawansowane metody optymalizacji zasobów chmurowych w modelach hybrid, cross i multicloud do wielkoskalowego trenowania modeli machine learning (głównie modeli predykcyjnych) i uruchamiania algorytmów optymalizacyjnych z wykorzystaniem modelu serverless. Zostanie przedstawiona architektura aplikacji AI Investments, architektura infrastruktury cloud computing i osiągane korzyści dzięki wykorzystaniu platformy MELODIC multicloud optimization.
Dorota Roszkowska, Uniwersytet w Białymstoku & Elastic Cloud Solution
Technologie chmurowe uznać należy za jedne z najsilniej napędzających cyfrową transformację przedsiębiorstw i instytucji. Choć wciąż budzą niepewność i sceptycyzm, bez wątpienia stanowią istotny czynnik rozwoju przedsiębiorstw, głównie dzięki pozytywnemu wpływowi na efektywność i znoszenie barier rozwoju. Technologie chmurowe to jednak nie tylko potencjalne korzyści z punktu widzenia finansów przedsiębiorstw, ale też organizacji pracy i poziomu zadowolenia pracowników. Dzięki migracji danych do chmury przedsiębiorstwa umożliwić mogą pracownikom optymalizację wykonywanych zadań, czy sprawniejszą komunikację. Dzięki stworzeniu cyfrowego miejsca pracy, pracownicy mogą pracować zdalnie, w każdym czasie i miejscu. Ma to szczególnie istotne znaczenie w kontekście oczekiwań Millenialsów i wchodzącego na rynek pracy pokolenia Z.
Marek Niezgódka, Uniwersytet Kardynała Stefana Wyszyńskiego
Fascynacja zdalnymi modelami przetwarzania danych i obliczeń komputerowych osiągnęła poziom kultu. Delegowanie takich usług operatorom komercyjnym stało się modne. Nadzieja na niskokosztowy model operacyjny, uwalniający od konieczności utrzymywania własnej kosztownej infrastruktury serwerowej i zespołów informatyków, obrazuje częsty, jeśli wręcz nie typowy, stan świadomości kierownictw firm i instytucji publicznych. Wśród pytań, do których nawiąże prezentacja, będą: Jakie jest odniesienie takich wyobrażeń do sytuacji rzeczywistej? Jakie może być racjonalne miejsce takich modeli operacyjnych w systemach nauki i edukacji? Czy przyszły model infrastruktur przetwarzania jest dziś możliwy do przewidzenia na 5, 10, … lat?
Witold Rudnicki, Uniwersytet w Białymstoku
Adres
Aula Wydziału Matematyki
Uniwersytet w Białymstoku
ul. K. Ciołkowskiego 1M, Białystok
Telefon
+48 85 738 83 50
Adres e-mail