وقتی بیمه عمر به شما هوش مصنوعی می دهد ، آیا باید لیموناد درست کنید؟


روند رو به رشدی وجود دارد که شرکت های بیمه از هوش مصنوعی در فعالیت های خود استفاده می کنند. در تبلیغات این روش ها معمولاً ذکر شده است که مشتریان به لطف هوش مصنوعی می توانند با سرعت بیشتری در سیاست ها ثبت نام کنند ، با کارآیی بیشتری ادعا کنند و کمک شبانه روزی دریافت کنند.

یک موضوع اخیر توییتر از Lemonade – یک مارک بیمه که از هوش مصنوعی استفاده می کند – مشکلات احتمالی این روش را روشن می کند. مردم آن را دیدند و سپس به این نتیجه رسیدند که رویکرد Lemonade AI برجسته می کند که بسته به کاربرد آن ، فناوری می تواند به آن آسیب برساند و کمک کند.

شفافیت در توییتر نگران کننده است

بسیاری از شرکت ها جزئیات مربوط به نحوه استفاده از هوش مصنوعی را فاش نمی کنند. ایده این است که نگه داشتن هوش مصنوعی با رمز و راز باعث ایجاد یک نمایش آینده نگرانه می شود ، در حالی که از فناوری خود شرکت محافظت می کند.

هنگامی که لیموناد به توییتر رفت تا به مردم ایده کارکرد هوش مصنوعی را ارائه دهد ، ارتباطات با توضیح نحوه استفاده از اطلاعات آغاز شد. به عنوان مثال ، توییت Lemonade ادعا می کند که تقریباً 100 برابر بیشتر از بیمه های سنتی داده جمع آوری می کند.

وی با توضیح اینکه چت بات این شرکت از مشتریان 13 سوال پرسیده است ، موضوع را ادامه داد. ضمن انجام این کار ، بیش از 1600 نقطه داده را جمع آوری می کند. وی نوشت ، این مقایسه با 20-40 شرکت بیمه دیگر است. این شرکت از این اطلاعات برای اندازه گیری ریسک مشتری استفاده می کند ، که به لیموناد کمک می کند تا هزینه های عملیاتی و نسبت تلفات را کاهش دهد.

توییت چهارم از این هفت پیام حتی به یک منطقه ابرو بزرگتر نیز وارد شد ، که نشان می دهد تحلیلگران هوش مصنوعی لیموناد نشانه های غیرکلامی مربوط به ادعاهای جعلی را کشف می کنند. تجارت این شرکت شامل مشتریانی است که از تلفن های خود برای ضبط فیلم از آنچه اتفاق افتاده استفاده می کنند.

کاربران توییتر اخلاق این روش را زیر س questionال بردند و به دلیل مشکلات رایانه های ناشناخته درباره تصمیم گیری در مورد پرونده های حقوقی تغییر دهنده زندگی ، مانند پرونده های مربوط به آتش زدن خانه ها ، اظهار داشتند. یکی این رویه را به عنوان “یک نسخه شبه علمی تر از آزمایش سنتی رسم الخط” توصیف می کند.

هوش مصنوعی نیز اشتباه می کند

کشف تقلب فراتر از روشهای هوش مصنوعی بیمه برای شناسایی صفات و الگوهای مشکوک است. به عنوان مثال ، بسیاری از بانک ها از آن برای گزارش کارمزد عجیب استفاده می کنند. با این حال ، فناوری می تواند موقعیت ها را به اشتباه توصیف کند – و آنها واقعاً چنین هستند. حتی واجد شرایط ترین برنامه نویسان نیز نمی توانند کار بی نقصی انجام دهند.

اکثر افراد گاهی اوقات وقتی می خواهند کالایی را بخرند و از صندوق دار می گویند که معامله شکست خورده است ، حتی اگر پول زیادی در حساب خود دارند ، در شرایط ناخوشایند قرار می گیرند. اصلاح وضعیت معمولاً به همین سادگی است که دارنده کارت برای توضیح وضعیت و موافقت با هزینه ها ، با ناشر تماس می گیرد.

با این حال ، می توان ادعا کرد که هنگام گرفتن اموال اصلی شخصی ، وضعیت خطرناک تر می شود. اگر هوش مصنوعی اشتباه دانست که فاجعه حقوقی بیمه گذار را به عنوان کلاهبرداری طبقه بندی کند؟ کسی که منصفانه هزینه بیمه را پرداخت می کند و انتظار دارد پس از یک وضعیت فاجعه بار تحت پوشش قرار گیرد ، می تواند در نهایت محافظت نشود. یک خطای مهلک ناشی از انسان در حین برنامه نویسی می تواند منجر به نتیجه اشتباه برای مشتری یک شرکت بیمه مجهز به هوش مصنوعی شود.

لیموناد به مشتریان این امکان را می دهد که در هر زمان انصراف دهند و بازپرداخت را برای مدت پرداخت شده باقیمانده در بیمه نامه دریافت کنند. پس از اینکه افراد موضوع ناپسند را در توییتر خواندند ، علناً تمایل خود را برای تغییر ارائه دهنده اعلام کردند. خیلی زود است که بگوییم چند نفر می توانند این را نظارت کنند.

با هزینه مشتری سود می کنید؟

در بخش دیگری از سری توییت های Lemonade ذکر شده است که این شرکت در سه ماهه اول سال 2017 368 درصد از دست دادن سود را کسب کرده است. اما در سه ماهه اول سال 2021 ، این میزان فقط 71 درصد بود. شرکت بیمه در افزایش سرمایه گذاری خود در زمینه هوش مصنوعی برای کمک به سود تنها نیست.

اقداماتی که رهبران شرکت در اجرای AI انجام می دهند ، بر نتایج تأثیر می گذارد. یک مطالعه BDO با افزایش سرمایه گذاری فناوری اطلاعات در پیاده سازی هوش مصنوعی ، رشد متوسط ​​درآمد 16٪ را نشان داد. با این حال ، بدون اختصاص منابع بیشتر به IT ، متوسط ​​افزایش تنها 5٪ بود.

صرف نظر از قدم های مشخصی که رهبر شرکت هنگام استفاده از هوش مصنوعی برمی دارد ، برجام شربت آبلیمو ترسهای قابل قبولی در مردم ایجاد کرده است. یکی از اصلی ترین معایب هوش مصنوعی این است که الگوریتم ها اغلب نمی توانند عواملی را که باعث شده نتیجه بگیرند ، توضیح دهند.

حتی متخصصان فنی که آن را می سازند نمی توانند جنبه های مختلفی را که باعث می شود یک ابزار هوش مصنوعی تصمیم دیگری را بگیرند ، تضمین کنند. این یک واقعیت نگران کننده برای محصولات بیمه ، هوش مصنوعی و سایر صنایع است که از هوش مصنوعی برای تصمیم گیری مهم استفاده می کنند. برخی از تحلیلگران هوش مصنوعی ، در HDSR ، قابل درک است که با استفاده غیرضروری از مدل جعبه سیاه مخالف هستند.

لیموناد گزارش می دهد که هوش مصنوعی درصد زیادی از تصمیمات ادعا را در چند ثانیه می گیرد. اگر نتیجه برای مشتری مفید باشد این خبر خوبی است. با این حال ، می توانید استرس اضافی را که فرد بیمه شده در معرض آن است در صورت رد یک ادعای معتبر کمتر از یک دقیقه ، تصور کنید. لیموناد و سایر بیمه های مجهز به هوش مصنوعی اگر سیستم به آنها کمک کند پول دربیاورند ، ممکن است بدشان بیاید ، اما اگر فناوری شرکت قضاوت های ناعادلانه ای انجام دهد ، مشتریان این کار را انجام می دهند.

لیموناد Backpedals

نمایندگان لیموناد به سرعت مجموعه جنجالی توییت ها را حذف کرده و عذرخواهی را جایگزین آنها کردند. من به پیام اشاره کردم Limonade AI هرگز ادعاها را به طور خودکار انکار نمی کند یا آنها را براساس ویژگی هایی مانند جنسیت یا ظاهر انسان ارزیابی نمی کند.

مصرف کنندگان خیلی زود متوجه شدند که توییت اصلی این شرکت به استفاده از هوش مصنوعی برای ارزیابی نشانه های غیرکلامی اشاره کرده است. اوضاع وقتی مشکوک شد که در پستی در وبلاگ Lemonade ادعا شده بود که این شرکت از هوش مصنوعی برای انکار ادعاها بر اساس ویژگی های جسمی یا شخصی استفاده نکرده است.

این نشریه در مورد چگونگی استفاده لیموناد از تشخیص چهره برای گزارش مواردی که یک شخص ادعا می کند چندین هویت دارد ، بحث می کند. با این حال ، در توییت اولیه اشاره های غیرکلامی ذکر شده بود که به نظر می رسید متفاوت از بررسی چهره یک شخص برای تأیید هویت او است.

گفتن جمله ای مانند “Limonade AI از تشخیص چهره برای تأیید هویت در هنگام دادرسی استفاده می کند” از نتیجه گیری ترسناک بسیاری از افراد جلوگیری می کند. این وبلاگ همچنین در مورد چگونگی تحقیقات رفتاری نشان می دهد که اگر افراد صحبت خود را تماشا می کنند – به عنوان مثال از طریق دوربین سلفی گوشی – بیشتر دروغ می گویند. می گوید این رویکرد اجازه می دهد تا “مطالبات حقوقی سریعتر پرداخت شود در حالی که هزینه ها پایین است”. سایر شرکت های بیمه احتمالاً از هوش مصنوعی متفاوت استفاده می کنند.

یک نگرانی بالقوه برای هرگونه ابزار بیمه AI این است که افرادی که از آن استفاده می کنند ممکن است ویژگی های استرس زا از خود نشان دهند که نشان دهنده خصوصیات افراد غیر صادق است. هنگام ایجاد یک ویدیوی ادعا ، ممکن است بیمه کننده لکنت داشته باشد ، سریع صحبت کند ، تکرار کند یا نگاهی بیندازد. این علائم می تواند ناشی از یک مصیبت بزرگ باشد – نه لزوما عدم صداقت. بخش منابع انسانی همچنین هنگام مصاحبه از هوش مصنوعی استفاده می کند. خطر مرتبط این است که هر کسی که تحت فشار باشد اغلب علیه خود عمل می کند.

استفاده از هوش مصنوعی و احتمال خراب شدن داده ها

کارایی الگوریتم AI معمولاً با دریافت اطلاعات بیشتر از ابزار ، بهبود می یابد. توییت های اصلی Lemonade ادعا می کنند روشی برای جمع آوری بیش از 1600 نقطه داده برای هر مشتری دارند. این مقدار زیاد نگران کننده است.

اول ، ممکن است از خود بپرسید که الگوریتم چه می داند و آیا نتیجه گیری نادرستی انجام داده است. نگرانی دیگر ناشی از این است که آیا لیموناد و سایر شرکت های بیمه هوش مصنوعی به اندازه کافی از داده ها محافظت نمی کنند.

موضوعات مرتبط: بهترین خدمات برای محافظت و نظارت بر سرقت هویت

هدف مجرمان اینترنتی این است که هنگام هدف قرار دادن قربانیان ، بدترین آسیب ممکن را وارد کنند. این اغلب به معنای تلاش برای نفوذ به شبکه ها و ابزارهای دارای بیشترین داده موجود است. متجاوزان آنلاین همچنین می دانند که چگونه هوش مصنوعی برای عملکرد مناسب به اطلاعات زیادی نیاز دارد. به همین ترتیب ، آنها دوست دارند داده ها را بدزدند تا بعداً در وب تاریک به فروش برسانند.

در حادثه فوریه 2020 ، یک شرکت شناسایی چهره به نام Clearview AI مورد نقض داده قرار گرفت. CPO گزارش می دهد که احزاب غیرمجاز به لیست کاملی از مشتریان و اطلاعات مربوط به فعالیت های این نهادها دسترسی دارند. این شرکت دارای آژانس های اجرای قانون ایالتی و فدرال در میان مشتریان خود ، از جمله FBI و وزارت امنیت داخلی است.

نقض داده ها با تضعیف اعتماد مشتریان و در معرض خطر سرقت هویت ، به آنها آسیب می رساند. از آنجا که حوادث داده های سرقت شده یا پردازش های نادرست بسیار رایج است ، ممکن است بسیاری از افراد اجازه ندهند که یک ابزار بیمه با هوش مصنوعی اطلاعات مربوط به آنها را در پس زمینه جمع کند. این امر به ویژه درصورتی که این شرکت نتواند سیاست های محافظت از داده و امنیت سایبری خود را تعریف کند ، صادق است.

راحتی همراه با اضطراب

هوش مصنوعی مورد استفاده در بخش بیمه جنبه های مفید بسیاری دارد. بسیاری از افراد دوست دارند به جای اینکه وقت ارزشمند تلفنی را صرف تماس تلفنی برای تماس با یک نماینده بکنند ، برای چت بات ها درخواست بنویسند و پاسخ های تقریباً فوری دریافت کنند.

اگر ابزار ادعاهای بیمه AI نتیجه گیری درستی داشته باشد و نمایندگان شرکت از محافظت از داده ها پشتیبانی کنند ، مزایای واضحی خواهید یافت. با این حال ، این بررسی به مردم یادآوری می کند که هوش مصنوعی یک راه حل قابل اعتماد نیست و شرکت ها می توانند از آن برای افزایش سود سو abuse استفاده کنند. همانطور که بیشتر و بیشتر بیمه ها هوش مصنوعی را مطالعه می کنند ، تحلیل گران فناوری و مصرف کنندگان باید این نهادها را با افزایش عدم تمایل صادق و اخلاقی نگه دارند. این امر به اطمینان از امنیت داده های کاربران در برابر جرایم اینترنتی کمک می کند.





منبع

Author: terem

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *