Shaip ၏ CEO နှင့် ပူးတွဲတည်ထောင်သူ Vatsal Ghiya သည် ကျန်းမာရေးစောင့်ရှောက်မှု AI ဆော့ဖ်ဝဲနှင့် ဝန်ဆောင်မှုများတွင် အတွေ့အကြုံ အနှစ် 20 ရှိပြီး machine learning နှင့် AI အစပျိုးမှုများဖြင့် လုပ်ငန်းစဥ်များကို လိုအပ်သလောက် ချဲ့ထွင်နိုင်စေပါသည်။ ဤဧည့်သည်ဝန်ဆောင်မှုတွင် Vatsal Ghiya သည် Conversational AI တွင် ဘက်လိုက်မှုကို ဖယ်ရှားနည်းဆိုင်ရာ အဓိကထိုးထွင်းသိမြင်မှုကို မျှဝေထားသည်။
ဆောင်းပါးမှ အဓိကယူဆောင်သွားသည့်အချက်မှာ-
- Statics မှဖော်ပြချက်အရ၊ အမေရိကန်အမျိုးသားများကို အသံဖြင့်ရှာဖွေခြင်းမှတစ်ဆင့် ရလဒ်များရယူခြင်း၏တိကျမှုနှုန်းမှာ 92% ဖြစ်သော်လည်း ၎င်းသည် 79% နှင့် 69% အထိ ကျဆင်းသွားပါသည်။ ဤသည်မှာ Bias AI ၏ ဂန္တဝင်ဥပမာတစ်ခုဖြစ်သည်။
- ဘက်လိုက်မှု AI ၏ လက်တွေ့ကမ္ဘာဥပမာအချို့တွင် Amazon နှင့် Facebook တို့သည် Amazon တွင် လူသစ်စုဆောင်းစဉ်အတွင်း အမျိုးသားများ ပိုမိုနှစ်သက်ခဲ့ကြသည့် ၎င်းတို့၏ လိင်၊ အသားအရောင်နှင့် ဘာသာရေးအရ ဖောက်သည်ကို ပစ်မှတ်ထားခြင်းဖြစ်သည်။ AI တွင် ဤဘက်လိုက်မှုသည် အကြောင်းရင်းသုံးခုကြောင့်ဖြစ်ပြီး ၎င်းတို့မှာ ဒေတာ၊ လူနှင့် နည်းပညာဖြစ်သည်။
- မည်သည့် application နှင့် system မှ AI ၏ဘက်လိုက်မှုကို ဖယ်ရှားရန်၊ အဖွဲ့အစည်းများသည် ဒေတာရင်းမြစ်များနှင့် အရည်အသွေးကို အသိအမှတ်ပြုခြင်းကဲ့သို့ အစီအမံများကို လိုက်နာနိုင်ပြီး မော်ဒယ်ကို အချိန်နှင့်တပြေးညီ စောင့်ကြည့်ကာ ၎င်းတို့၏ လုပ်ငန်းဆောင်ရွက်မှုများတွင် AI ကို အသုံးမပြုမီ ဒေတာကွဲပြားမှုကို ပိုင်းခြားစိတ်ဖြာနိုင်သည်။
ဆောင်းပါးအပြည့်အစုံကို ဤနေရာတွင် ဖတ်ရှုပါ။