„Microsoft“ atsakingo dirbtinio intelekto naudojimo standartas
Svarbių dalykų apibrėžimas
Sąžiningumas
Kaip dirbtinio intelekto sistema gali paskirstyti galimybes, išteklius ir informaciją tokiu būdu, kuris būtų teisingas ją naudojančių žmonių atžvilgiu?
Patikimumas ir sauga
Kaip sistema galėtų gerai veikti žmonėms su skirtingomis naudojimo sąlygomis ir kontekstais, įskaitant tuos, kuriems ji iš pradžių nebuvo skirta?
Privatumas ir sauga
Kaip sistema gali būti sukurta siekiant palaikyti privatumą ir saugą?
Įtrauktis
Dirbtinio intelekto sistemos turėtų suteikti galimybių visiems ir įtraukti visus žmones, neatsižvelgiant į jų kilmę.
Kaip sistema gali būti sukurta taip, kad į ją būtų įtraukti visų gebėjimų žmonės?
Skaidrumas
Kaip užtikrinti, kad žmonės tinkamai suprastų sistemos galimybes?
Atsakingumas
Žmonės turėtų būti atsakingi už dirbtinio intelekto sistemas.
Kaip galime sukurti priežiūrą, kad žmonės galėtų būti atsakingi ir kontroliuoti?
Kaip „Microsoft“ pritaiko atsakingą dirbtinio intelekto naudojimą
„Microsoft 2025“ atsakingo dirbtinio intelekto naudojimo skaidrumo ataskaita
- Atsakingai kuria generuojamojo DI sistemas.
- Priima sprendimus dėl šių sistemų išleidimo.
- Padeda klientams atsakingai kurti DI.
- Tobulina mūsų atsakingo DI naudojimo programą.
Skaidrumo dokumentai
Anomalijų aptikimas
Turinio sauga „Foundry“ valdymo plokštuma
„Azure AI Face“ paslauga
„Azure“ DI ieška
„Azure Language in Foundry Tools“
„Azure OpenAI“ „Foundry“ modeliuose
„Azure“ vaizdo įrašų rodyklės kūrimo priemonė
Šnekamosios kalbos supratimas
Dažnai užduodami klausimai
-
Dirbtinio intelekto principai yra gairės, skirtos užtikrinti atsakingą dirbtinio intelekto technologijų kūrimą ir diegimą. Šie principai yra labai svarbūs, nes jie padeda sumažinti riziką, skatinti etiškas praktikas ir maksimaliai padidinti DI naudą visuomenei.
Atsakingo dirbtinio intelekto naudojimo standartas „Microsoft“ sujungia pagrindines praktikas, kad būtų užtikrinta atitiktis atsirandantiems dirbtinio intelekto įstatymams ir taisyklėms.
- „Microsoft“ siūlo įvairių įrankių ir praktikų padėti organizacijoms taikyti atsakingo dirbtinio intelekto naudojimo praktiką.
Be to, „Microsoft“ Atsakingo dirbtinio intelekto naudojimo standartas padeda apibrėžti atsakingam dirbtinio intelekto naudojimui taikomus produkto kūrimo reikalavimus. - Skaidrumo pastabos kuriamos siekiant padėti klientams geriau suprasti vidinius DI technologijų veiksmus ir priimti geriau pagrįstus sprendimus dėl jų naudojimo. Jos yra atsakingo dirbtinio intelekto naudojimo standarto dalis ir yra skirtos palaikyti atsakingo dirbtinio intelekto naudojimo kūrimą pateikiant įžvalgų apie tai, kaip dirbtinio intelekto sistemos yra reglamentuojamos, susietos, įvertintos ir valdomos.
„Microsoft“ taip pat teikia Atsakingo dirbtinio intelekto naudojimo skaidrumo ataskaitą, kurioje pateikiama įžvalgų apie tai, kaip „Microsoft“ kuria programas naudodama generuojamąjį dirbtinį intelektą, prižiūri šių programų diegimą, palaiko klientus, kai jie kuria savo dirbtinio intelekto programas, ir skatina atsakingo dirbtinio intelekto naudojimo bendruomenę.
Stebėkite „Microsoft“