Rzeczy, które zrobiliśmy

Najlepszy sposób na to, by sprawdzić, czego możesz od nas oczekiwać, to przeczytać, co zrobiliśmy dla innych.

Algorytm wspierający domy mediowe dla Brainworks TM

Celem projektu było stworzenie łatwego i wydajnego systemu. Lekki i łatwo skalowalny silnik ma pozwalać monitorować wyświetlenia reklam w internecie w szybki sposób.

50,467,991

przeskanowanych reklam do tej pory



Jeden z naszych klientów dostrzegł u swoich partnerów biznesowych potrzebę możliwości sprawdzenia czy ich kampanie reklamowe są wyświetlane zgodnie ze statystykami różnych serwerów reklamowych. Ad serwery same zliczają swoje statystyki, co powoduje częste zakłamania.
System został wyposażony o funkcje bazujące na eksploracji danych, takie jak rekomendacje wyświetlania określonej reklamy prowadzącej do zwiększenia konwersji. A intuicyjny system statystyk pozwala generować raporty oraz podglądać je w czasie rzeczywistym.

Interesujące aspekty projektu.

6.000 zapytań na sekundę i, w przypadku zwiększnia natężenia ruchu, możliwość poziomowego skalowania systemu, to naprawdę wielkie wyzwanie! Na początku testowaliśmy wielorakie technologii aby zdecydować, jaka kombinacja przyniesie najlepsze rezultaty w najkrótszym czasie. Testowaliśmy między innymi Twisted, Gevent, Redis, Consul, Docker Swarm, Docker Compose, ZMQ, Celery, RabbitMQ. W wyniku czego nauczyliśmy się wiele na temat budowania wydajnych, wysoce skalowalnych systemów.


Odkryliśmy, że najlepsze osiągnięcia możliwe były do uzeskania przez wykorzystanie możliwości płynących z połączenia kilku technologii. W tym przypadku, zdecydowaliśmy się użyć języków Python, R i C++ połączonych z Redisem, PostgreSQL, Nginx, Dockerem i wieloma innymi technologiami, które pozwoliły nam uzyskać unikalną jakość

Postanowiliśmy podejść do projektu agilowo. Dlatego zaczęliśmy od zdefiniowania testów, które sprawdzą, czy wybrane przez nas technologie spełniają wymagania postawione przez klienta. Celem było zrobić system wydajny, który obsłuży wiele tysięcy połączeń na sekundę i przeprowadzi na nich analizę, dlatego to było kluczowe w projekcie. Gdy już zdefiniowaliśmy testy, to zaczęliśmy próby każdej technologi po kolei, aż w końcu znaleźliśmy taką, która spełniała wymagania. Dzięki temu zaoszczędziliśmy czas na niepotrzebnych pracach deweloperskich.

Algorytm rekomendacyjny dla sieci way2traffic.

Zadaniem systemu było zaproponowanie reklamy, która będzie miała najwyższe prawdopodobieństwo kliknięcia, dzięki danym na temat zachowania oraz kontekstu w jakim znajduje się użytkownik.

Przeszkodą było to, że nie mogliśmy przetestować tego na danych rzeczywistych, gdyż zapięcie się na działający system było niemożliwe. Statystyka jednak była po naszej stronie. Oto cała magia liczb. Porównanie tego z zachowaniem użytkownika rzeczywistego, było więc formalnością. Projekt zakończył się sukcesem większym od zakładanego podnoszącym konwersje bardziej niż w zakładanej predykcji.

Interesujące aspekty projektu.

Najciekawszą częścią projektu było przeprowadzanie symulacji. Dawały nam one informacje zwrotne z jaką skutecznością możemy przewidywać zachowania naszych użytkowników.

Business Intelligence software dla Wyższej Szkoły Europejskiej w Krakowie.

Celem projektu było stworzenie narzędzia integrującego duże i rozproszone zbiory danych. Następnie dokonanie ich cyfrowej analizy w ułamku sekund, a nie jak do tej pory, przez wiele tygodni za pomocą pracowników administracji.

Algorytm analizujący opłacalność kierunków na uczelni oraz obniżający kosztów ręcznej analizy na podstawie dużych ilości danych.

System jest ważną częścią działalności uczelni. Pozwala on weryfikować jakość kształcenia uczelni przez pryzmat osiągnięć absolwentów na rynku pracy, a także pozwala ustalać plany biznesowe w oparciu o miarodajne prognozy odnośnie opłacalności przyszłych kierunków studiów.

Cały kłopot u klienta polegał na tym, że dane były rozproszone w wielu źródłach. Nie tylko należały do nich liczne bazy danych SQL, ale także surowe źródła takie jak: pliki tekstowe, pliki pdf, dokumenty odc, arkusze kalkulacyjne. Dlatego, aby wyciągnąć właściwe wnioski, trzeba było doprowadzić w pierwszej kolejności do integracji tych źródeł danych do postaci hurtowni danych. Gdy to już się udało, należało w systemie stworzyć interfejs do eksploracji danych tak, aby w łatwy sposób można było generować wskaźniki mówiące o tym, w jaki sposób studenci radzą sobie na rynku. Jednym z głównych założeń systemu było to, aby był on prosty, intuicyjny i łatwy w obsłudze, żeby z jego używaniem radziła sobie każda osoba na uczelni.
W rezultacie system daje dokładniejsze wyniki analizy i to w czasie rzeczywistym. Redukując koszty tysięcy godzin prac administracyjnych rocznie.

Nasze główne przedsięwzięcie

Podejście naszego zespołu odnośnie pomocy ludziom chorym na cukrzycę insolinozależną jest proste: Wykorzystujemy dane dla utrzymania stałego poziomu glukozy, a tym samym zmniejszamy ryzyko komplikacji.

Firma DiabetesLab, powstała w oparciu o moją chorobę. Na pewno wiecie, jak trudne jest życie chorego na cukrzycę. Od szczegółowego liczenia węglowodanów w każdym posiłku, aż do obliczenia dawek przyjmowanej insuliny. A gdy chcesz uprawiać sport wszystko komplikuje się razy 10, gdyż musisz przewidywać, jaki wysiłek wykonasz i jak wpłynie to na poziom cukru. Dla każdego sportowca cukrzyka to długie godziny z kalkulatorem każdego miesiąca.

Sytuacja idealna, którą chcemy osiągnąć za kilka lat wygląda tak, że system widzi co zaraz zjesz, przewiduje co będziesz robił i dostarcza do ciała tyle insuliny, ile potrzeba. Choć to ogromny projekt podzieliliśmy go na etapy. I w drodze do finalnego celu, będziemy dostarczać ludziom chorym na cukrzyce coraz lepsze rozwiązania tego problemu.
Pierwszy etap naszego projektu skupia się na opracowaniu systemu monitorowania cukrzycy, aplikacji na smartfony zajmującej się monitorowaniem hipoglikemii i zarządzaniem cukrzycą. Drugi etap przewiduje wykonanie opaski na peny cukrzycowe, która będzie zbierać informacje o dawkach podawanej insuliny.

Nasza praca dotyczy również rozwijania technologii, która umożliwi rozpoznanie składników produktów spożywczych. Znaczy to, że użytkownicy dostaną informację o tym, ile węglowodanów mogą dostarczyć do organizmu.

W dłuższej perspektywie pragniemy zostać firmą oferująca produkty dla diabetyków. To właśnie dlatego nasza dalsza droga będzie związana z opracowaniem urządzenia monitorującego poziom cukru. To z kolei ułatwi nam pracę nad stworzeniem sztucznej trzustki.

Członkowie naszego zespołu analityków i inżynierów brali również udział w następujących projektach:

System wspierania decyzji dla Straży Pożarnej.

System poprawiający skuteczność akcji ratowniczych dzięki analizie danych w trybie rzeczywistym.

Nasz czołowy data scientist brał udział w stworzeniu nowoczesnych narzędzi wspomagania decyzji oraz rekomendacji dla dowódców Państwowej Straży Pożarnej podczas akcji ratowniczo-gaśniczych. Serce systemu stanowią algorymy detekcji aktywności oraz nawigacja zliczeniowa z wykorzystaniem jednostki IMU (inertial measurement unit - inercyjne jednostki pomiarowe).

Celem tego projektu była poprawa bezpieczeństwa strażaków oraz optymalizacja efektów akcji ratowniczej. Sednem projektu było zaprojektowanie nowoczesnego systemu zarządzania ryzykiem, który pomógłby dowódcy podczas akcji w budynku.
Ilość informacji, presja czasu oraz niewyobrażalna odpowiedzialność może skutecznie przeszkodzić podjęciu optymalnych w danej sytuacji decyzji.
Nowoczesne metody wykorzystania danych, już dziś umożliwiają nam nawiązanie skutecznej interakcji człowieka z maszyną, tym samym znacznie ułatwiając strażakom pracę w akcjach podwyższonego ryzyka. Znalezienie takich rozwiązań wymaga doskonałej znajomości złożonych algorytmów dynamicznego zarządzania ryzykiem.
System ten zarówno ocenia i prognozuje czynniki ryzyka w czasie rzeczywistym, jak i asystuje dowódcy proponując optymalne scenariusze dla danej akcji. Scenariusze te powstają na podstawie modeli opartych o symulacje komputerowe
i dane historyczne.

Interesujące aspekty projektu.

Jedną z ważnieszych kwestii było znalezienie właściwych algorytmów dla następujących problemów:
  1. Estymacja ścieżki poruszania się strażaka wewnątrz budynku.
  2. Model rozprzestrzeniania się ognia wewnątrz pomieszczeń.
Dla naszego data scientist'a najbardziej interesujące było stworzenie wersji filtru Kalmana wykorzystującego dane z żyroskopów, akceleromterów, który poprawił trajektorię osoby.

Algorytm wspierający pracę spółki brokerskiej

Stworzenie systemu, który będzie przewidywał zmiany trendu na giełdzie tak, aby wcześniej sprzedać lub kupić akcje.

W projekcie na rzecz międzynarodowego funduszu hedgingowego (nie możemy zdradzać szczegółowych informacji) celem było przewidywanie strategii handlowych poprzez użycie modeli statystycznych na rynkach walutowych.
Początkowe zadania skupiały się na analizie ilościowej, tzn. na zbieraniu, agregowaniu i analizowaniu archiwalnych danych rynkowych dla transakcji. W tej części ważnym elementem było generowanie statystyk oraz raportów ze zbiorów danych typu big data. Następnie trzeba było się skupić na stworzeniu odpowiednich algorytmów grających z wysoką częstotliwością, przy niewielkim opóźnieniu.
W trakcie projektu trzeba było dokonać opracowania i analizy rozmaitych modeli statystycznych oraz analizy historycznych danych rynkowych przy użyciu technik z dziedziny data mining.

Interesujące aspekty projektu.

Najlepszych rezultatów dostarczył Filtr Kalmana, do którego zaimplementowaliśmy tzw. teorię portfelową Markowitza.