Czy sieć neuronowa musi być black boxem, czyli zaglądamy do wnętrza sieci neuronowych
Duża popularność uczenia głębokiego wynika z imponujących rezultatów osiąganych przez sieci neuronowe. Już dziś możemy pochwalić się autonomicznymi samochodami czy asystentami głosowymi, zdolnymi zamawiać dla nas rzeczy z internetu. Jeszcze kilka lat temu było to nieosiągalne.
Jednak wspaniałe rezultaty okupione są często zgadywaniem, dlaczego w 1 przypadku na 100 sieć nie zadziałała tak, jak powinna i wynik był zupełnie różny od oczekiwanego. Sieć neuronowa to nadal czarna skrzynka, która w magiczny i tylko sobie znany sposób przekształca wejście na rozsądne wyjście. Ale czy na pewno? Podczas prezentacji postaramy się zajrzeć do wnętrza konwolucyjnej sieci neuronowej.
Na webinar zapraszamy wszystkie osoby zainteresowane tematem sieci neuronowych i szukających intuicyjnych sposobów zrozumienia ich działania. Pokażemy kilka metod wizualizacji wnętrza, które pomogą debuggować błędne rezultaty.
Zakres poruszanych tematów:
- Co potrafią maszyny?
- Nieoczekiwane błędy sztucznej inteligencji
- Sieć jako black box
- Wizualizacja sieci
- Czy sieć neuronowa będzie white boxem?
Prowadzący: Adrian Boguszewski, Deep Learning Engineer w Linux Polska. Absolwent Politechniki Gdańskiej w kierunku Informatyka. Posiada ponad 2-letnie doświadczenie w przetwarzaniu obrazu i algorytmach sztucznej inteligencji. Specjalizuje się w sieciach konwolucyjnych do klasyfikacji, detekcji i segmentacji danych wizualnych. Jest wielkim entuzjastą open source oraz czystego kodu. W wolnym czasie podróżuje.