কৃত্রিম বুদ্ধিমত্তা বা ‘এআই’ প্রযুক্তির অভাবনীয় অগ্রগতির সাথে পাল্লা দিয়ে বিশ্বজুড়ে বীমা শিল্পে এক নয়া সংকটের উদ্ভব হয়েছে। বিশেষ করে ‘ডিপফেক’ প্রযুক্তির ব্যবহার বীমা প্রতিষ্ঠানগুলোর জন্য এখন প্রধান উদ্বেগের কারণ। আগে এই প্রযুক্তি মূলত সামাজিক যোগাযোগমাধ্যমে বিভ্রান্তিকর কন্টেন্ট বা রাজনৈতিক অপপ্রচারে ব্যবহৃত হলেও, বর্তমানে এটি বীমা খাতের আর্থিক কাঠামোকে লক্ষ্যবস্তু করছে। জেনারেটিভ এআই-এর সহজলভ্যতার কারণে প্রতারকরা অতি অল্প সময়ের মধ্যে বাস্তবসম্মত ভুয়া ছবি, ভিডিও, কণ্ঠস্বর এবং দাপ্তরিক নথি তৈরি করতে সক্ষম হচ্ছে, যা বীমা জালিয়াতির ঝুঁকিকে বহুগুণ বাড়িয়ে দিয়েছে।
Table of Contents
বৈশ্বিক প্রেক্ষাপট ও পরিসংখ্যানিক বিশ্লেষণ
বিশ্বের উন্নত দেশগুলোতে বীমা প্রতারণার হার আশঙ্কাজনকভাবে বৃদ্ধি পেয়েছে। যুক্তরাজ্যভিত্তিক বীমা প্রতিষ্ঠান ‘অ্যাডমিরাল’-এর তথ্যমতে, ২০২৪ সালে তাদের শনাক্তকৃত প্রতারণামূলক দাবির পরিমাণ ছিল ৫০.৯ মিলিয়ন পাউন্ড, যা ২০২৫ সালে বৃদ্ধি পেয়ে ৮৬.৮ মিলিয়ন পাউন্ডে দাঁড়িয়েছে। অর্থাৎ মাত্র এক বছরে এই জালিয়াতির হার ৭১ শতাংশ বৃদ্ধি পেয়েছে। অন্যদিকে, জার্মান বীমা প্রতিষ্ঠান ‘অ্যালিয়ানজ’ জানিয়েছে, ছবি ও ভিডিও বিকৃত করে জালিয়াতির ঘটনা আগের বছরের তুলনায় ৩০০ শতাংশ বেড়েছে।
বিভিন্ন জরিপ ও গবেষণায় প্রাপ্ত তথ্য
| জরিপকারী প্রতিষ্ঠান | মূল ফলাফল ও পরিসংখ্যান |
| অ্যাডমিরাল (যুক্তরাজ্য) | এক বছরে জাল দাবি বৃদ্ধি পেয়েছে ৭১ শতাংশ। |
| অ্যালিয়ানজ (জার্মানি) | ডিজিটাল নথি বিকৃতির ঘটনা বেড়েছে ৩০০ শতাংশ। |
| এনআইসিবি ও ভেরিস্ক | ৩৬ শতাংশ গ্রাহক ছবি পরিবর্তনের কথা ভাবতে পারেন। |
| স্প্রাউট ডট এআই | ৮৩ শতাংশ কর্মকর্তা মনে করেন ৫% দাবিতে এআই ব্যবহার হচ্ছে। |
নতুন ধরনের প্রতারণা: কণ্ঠস্বর ও ভিডিও নকল
ডিপফেক ঝুঁকি এখন কেবল স্থিরচিত্র বা নথির মধ্যে সীমাবদ্ধ নেই। প্রতারকরা এখন ‘ভয়েস ক্লোনিং’ বা কণ্ঠস্বর নকল এবং ডিপফেক ভিডিও কলের মাধ্যমে বীমা গ্রাহক বা কর্মকর্তাদের পরিচয় ধারণ করছে। হংকংয়ে একটি প্রকৌশল প্রতিষ্ঠানে কৃত্রিম কণ্ঠস্বর ও ভুয়া ভিডিও ব্যবহার করে প্রায় ২০০ মিলিয়ন হংকং ডলার হাতিয়ে নেওয়ার ঘটনাটি আর্থিক খাতে এই প্রযুক্তির ধ্বংসাত্মক ক্ষমতার একটি বড় উদাহরণ। মোটর বীমার ক্ষেত্রে গাড়ির দুর্ঘটনাকবলিত ভুয়া ছবি তৈরি বা একই ছবি ভিন্ন নম্বর প্লেট ব্যবহার করে একাধিকবার বীমা দাবি করার প্রবণতাও বাড়ছে।
বাংলাদেশের প্রেক্ষাপট ও বিদ্যমান সংকট
বাংলাদেশে এখন পর্যন্ত ডিপফেক ভিত্তিক বীমা জালিয়াতির সুনির্দিষ্ট সরকারি পরিসংখ্যান পাওয়া না গেলেও ক্রমবর্ধমান ডিজিটাল সেবার বিস্তারের ফলে এই ঝুঁকি দ্রুত বাড়ছে। সম্প্রতি আইনশৃঙ্খলা বাহিনী এআই-জেনারেটেড ভিডিও ব্যবহার করে প্রতারণার অভিযোগে ১০ জনকে গ্রেপ্তার করেছে, যা প্রমাণ করে যে দেশে এই প্রযুক্তি ব্যবহারের সক্ষমতা তৈরি হয়েছে। বাংলাদেশের বীমা খাত এমনিতেই আস্থাহীনতা ও দাবি নিষ্পত্তির ধীরগতির কারণে সংকটে রয়েছে।
বাংলাদেশের বীমা খাতের বর্তমান স্থিতি (২০২৫)
| সূচক | বর্তমান অবস্থা |
| লাইফ বীমা দাবি নিষ্পত্তির হার | ৬৬.০৬ শতাংশ (২০২০ সালে ছিল ৮৫%) |
| মোট বকেয়া লাইফ বীমা দাবি | ৩,৮৮০ কোটি টাকা (প্রায়) |
| বীমা পেনিট্রেশন (জিডিপি অনুপাতে) | ০.৩০ শতাংশ (২০১০ সালে ছিল ০.৯০%) |
| ঝুঁকিপূর্ণ পলিসি গ্রাহক | ১৫ থেকে ১৬ লক্ষ (দুর্বল কোম্পানিগুলোর কারণে) |
গ্রাহক ও বীমা খাতের ওপর প্রভাব
ডিপফেক জালিয়াতির কারণে সবচেয়ে বেশি ক্ষতিগ্রস্ত হতে পারেন সাধারণ ও সৎ গ্রাহকরা। জালিয়াতি শনাক্ত করতে গিয়ে কোম্পানিগুলোর যাচাই-বাছাই প্রক্রিয়া দীর্ঘায়িত হবে, ফলে দাবি নিষ্পত্তিতে ব্যয় ও সময় উভয়ই বৃদ্ধি পাবে। এছাড়া প্রতারণাজনিত আর্থিক ক্ষতি কাটিয়ে উঠতে বীমা কোম্পানিগুলো শেষ পর্যন্ত গ্রাহকদের ওপর প্রিমিয়ামের বোঝা বাড়াতে পারে। যুক্তরাজ্যে প্রতি বছর শনাক্ত হওয়া এবং না হওয়া বীমা জালিয়াতির কারণে প্রায় ৩ বিলিয়ন পাউন্ডের ক্ষতি হয়।
প্রযুক্তিগত প্রতিরোধ ও আইনি উদ্যোগ
এই চ্যালেঞ্জ মোকাবিলায় বিশ্বজুড়ে বীমা কোম্পানিগুলো এখন ডিজিটাল ফরেনসিক বিশ্লেষণ, বায়োমেট্রিক যাচাই এবং রিয়েল-টাইম রিস্ক স্কোরিং প্রযুক্তিতে বিনিয়োগ করছে। ইউরোপীয় ইউনিয়নের ‘এআই অ্যাক্ট’ এবং যুক্তরাষ্ট্রে প্রস্তাবিত ‘প্রিভেন্টিং ডিপ ফেইক স্ক্যামস অ্যাক্ট’ এই ধরনের ডিজিটাল জালিয়াতি রোধে কঠোর নীতিমালা প্রণয়ন করছে।
বাংলাদেশের জন্য করণীয় হলো বীমা উন্নয়ন ও নিয়ন্ত্রণ কর্তৃপক্ষ বা ‘আইডিআরএ’-এর অধীনে একটি কেন্দ্রীয় ফ্রড মনিটরিং ফ্রেমওয়ার্ক গঠন করা। একই সাথে অনলাইন দাবির ক্ষেত্রে ছবির মেটাডাটা যাচাই এবং উচ্চমূল্যের দাবির ক্ষেত্রে বাধ্যতামূলক মানবীয় বা শারীরিক যাচাই ব্যবস্থা চালু করা জরুরি। প্রযুক্তির এই নয়া চ্যালেঞ্জ মোকাবিলায় দ্রুত প্রস্তুতি নিতে ব্যর্থ হলে ভবিষ্যতে বাংলাদেশের বীমা শিল্প এক গভীর আর্থিক ও আস্থাগত সংকটে নিমজ্জিত হতে পারে।
