Twój koszyk jest obecnie pusty!
🔒 Nie wyjaśniajmy wizyjnych modeli AI w oderwaniu od kontekstu
Czy fakt, że stetoskop jest blisko jakiejś osoby, czyni ją lekarzem? I jakie to ma znaczenie dla objaśniania decyzji podejmowanych przez modele AI?

Artykuł objaśnia publikację „Position: Do Not Explain Vision Models Without Context”, Pauliny Tomaszewskiej i Przemysława Biecka (można ją przeczytać TUTAJ)
To w uproszczeniu zależy od tego, jakie są szczegółowe relacje przestrzenne pomiędzy osobą a stetoskopem, czyli co w tym przypadku oznacza sformułowanie, że „coś jest blisko czegoś”.
Autor
-
Doktorantka na Politechnice Warszawskiej, specjalizująca się w Deep Learning, cyfrowej patologii, wyjaśnialnej sztucznej inteligencji (xAI) oraz kontekście przestrzennym w obrazach
View all posts
Ten artykuł jest częścią drukowanej edycji hAI Magazine. Aby go przeczytać w całości, wykup dostęp on-line
29,99 zł miesięcznie
Wykup dostęp
Paulina Tomaszewska
Doktorantka na Politechnice Warszawskiej, specjalizująca się w Deep Learning, cyfrowej patologii, wyjaśnialnej sztucznej inteligencji (xAI) oraz kontekście przestrzennym w obrazach
Może Cię zainteresować
Kamil ŚwidzińskiLe Chat od Mistral – darmowa alternatywa dla ChatGPT Plus
Mistral AI przedstawia nową wersję swojego zaawansowanego asystenta AI – le Chat, który jest odpowiedzią na rosnące zapotrzebowanie na przystępne, wielofunkcyjne narzędzia sztucznej inteligencji.
dr Ewa Chamczyk12 Days of OpenAI – świąteczny maraton nowości od twórców ChatGPT
„Starting tomorrow at 10 am pacific, we are doing 12 days of OpenAi” – tym krótkim tweetem Sam Altman rozpoczął świąteczne odliczanie, które zelektryzowało świat AI.
Kamil ŚwidzińskiPolscy politycy dostrzegają potencjał sztucznej inteligencji
I powołują szereg inicjatyw na podstawie przyjętej, przez koalicję rządzącą, strategią AI.
Adam Jędrusyna10 lat Alexy – czym jest?
W 2014 roku, gdy na świecie królowały smartfony, na rynku pojawiło się rewolucyjne urządzenie…



