Synskadades Riksförbund anser att:

  • lagstiftning kring AI ska förbjuda AI-modeller som diskriminerar synskadade och andra personer med funktionsnedsättning
  • lagstiftning om AI-utveckling och annan reglering ska garantera den personliga integriteten så att data om en enskilds funktionsnedsättning inte får lagras
  • AI-teknik ska omfattas av lagstiftning med EU:s tillgänglighetsdirektiv som utgångspunkt
  • innovation som kan leda till AI-baserade hjälpmedel för synskadade ska uppmuntras och få stöd av staten
  • organisationer som företräder synskadade ska involveras i framtagandet av AI-modeller
  • AI-verktyg speciellt framtagna för synskadade inte ska censurera innehåll så att synskadade fritt kan ta del av information
  • avgiftsbelagda AI-baserade verktyg speciellt framtagna för synskadade ska kunna gå att få som hjälpmedel om de uppfyller säkerhetskrav och etiska krav
  • AI aldrig får bli en ersättning för den som önskar mänskligt stöd i form av exempelvis hemtjänst, syntolkning och ledsagning.

Bakgrund

Parallellt med att AI utvecklas, utvecklas också lagstiftningen och annan reglering kopplad till AI. Det är viktigt att diskussion kring etiska aspekter när det gäller AI hinns med trots den snabba utvecklingen. Aspekter relaterade till mänskliga rättigheter och funktionshinderspolitik är en viktig del i dessa diskussioner.

Många synskadade har börjat använda sig av appar som kan beskriva omgivningen, identifiera produkter och sammanfatta texter och otillgängliga webbplatser på ett ytterst trovärdigt sätt.

Samtidigt bygger AI-modeller på algoritmer och statistik där många marginaliserade grupper, som exempelvis synskadade, ofta inte är representerade. Även om verktygen låter trovärdiga och övertygande kan det som påstås vara helt felaktigt. Den som till exempel ber kända AI-verktyg att ge förslag på en tillgänglig hemsida kan få förslag som inte alls är tillgängliga, även om AI-verktyget försäkrar motsatsen. AI-modeller riskerar också att diskriminera personer som avviker från normen i olika rekryteringsprocesser. Det pekar bland annat Diskrimineringsombudsmannen på i en rapport från 2023. Stereotyper av exempelvis gruppen synskadade kan också förekomma i AI-modeller.

Vidare läsning

European disability Forum om AI (extern webbplats)