AAAI 2023 to organizowana w Waszyngtonie przez Stowarzyszenie Rozwoju Sztucznej Inteligencji konferencja. Jest jednym z największych spotkań środowisk naukowych badających sztuczną inteligencję. W AAAI 2023 wzięło udział dwóch uczestników z Polski z z ramienia Uniwersytetu Warszawskiego i IDEAS NCBR.
Association for the Advancement of Artificial Intelligence – AAAI – Stowarzyszenie Rozwoju Sztucznej Inteligencji organizuje konferencje, na której omawiane są najnowsze zagadnienia związane ze sztuczną inteligencją. Są one źródłem zainteresowanie nie tylko naukowców, ale również mediów. AAAI Conference on Artificial Intelligence organizowana była po raz 37. i jak zwykle poruszano na niej tematy, które pozwalają bliżej przyjrzeć się problemom związanym z AI.
Najważniejszą częścią tego wydarzenia sprzyjającego wymianie doświadczeń o nawiązywaniu relacji z praktykami są wystąpienia naukowców. Prezentują oni badania prowadzone w obszarze sztucznej inteligencji. W tej edycji zgłoszono 8777 artykułów. Jednak do prezentacji zaakceptowano jedynie 1721 z nich.
Wśród prezentacji znalazła się ta Tomasz Lizureja napisana wspólnie z dwoma innymi naukowcami związanymi z ośrodkiem badawczo-rozwojowym działającym w obszarze sztucznej inteligencji IDEAS NCBR – doktorem Tomaszem Michalakiem i profesorem Stefanem Dziembowskim. „On Manipulating Weight Predictions in Signed Weighted Networks” dostępna jest publicznie w internecie. Dowodzi ona odporności na pośrednią manipulację algorytmów koordynujących działania marketplace’ów czy giełd kryptowalut.
Naukowcy zwracają uwagę, że czołówka tematów związanych ze sztuczną inteligencją to nie tylko popularna obecnie w mediach generatywna AI. W środowisku badaczy popularność zyskuje AI for Social Impact, czyli zaprzęgnięcie sztucznej inteligencji do rozwiązywania ważnych problemów społecznych.
– Zagadnienia AISI zyskują na popularności. Coraz większa część społeczności AAAI widzi ogromną rolę AI w zastosowaniach społecznych. Tematyce AI for Social Impact poświęcona była zresztą specjalna część konferencji. To już mainstream AI, a nie peryferie – stwierdził dr Tomasz Michalak, lider grupy roboczej w IDEAS NCBR.
Tomasz Lizurej zwraca uwagę na zaprezentowany przez Truck Nguyen z Uniwersytetu w Helsinkach artykuł „XRand: Differentially Private Defense against Explanation-Guided Attacks”. Autorka analizuje w nim relację pomiędzy bezpieczeństwem a wytłumaczalnością i łatwością obsługi modeli AI.
Josh Tenenbaum, profesor komputerowych nauk kognitywnych w Massachusetts Institute of Technology w trakcie swojego wystąpienia opowiadał natomiast o doświadczeniach związanych z uczeniem maszyn widzenia i działania w sposób podobny do ludzkiego.
Źródło: stories.prowly.com