বিষয়বস্তু এড়িয়ে যান
এই নিবন্ধটি এআই ব্যবহার করে জাপানি থেকে অনুবাদ করা হয়েছে
জাপানি ভাষায় পড়ুন
এই নিবন্ধটি পাবলিক ডোমেইন (CC0) এর অধীনে। এটি স্বাধীনভাবে ব্যবহার করতে পারেন। CC0 1.0 Universal

প্রাকৃতিক ভাষা মেশিন লার্নিং

প্রথাগত মেশিন লার্নিং এমন একটি প্যারাডাইমের মধ্যে কাজ করে যেখানে কম্পিউটার, সংখ্যাগত গণনায় পারদর্শী, সংখ্যাগত ডেটা থেকে শেখে এবং সংখ্যাগত প্যারামিটার অর্জন করে।

অন্যদিকে, আমরা কেবল সংখ্যাগত প্রক্রিয়ার মাধ্যমেই নয়, ভাষার মাধ্যমেও শিখতে সক্ষম। আমরা অভিজ্ঞতাকে শব্দে সংগঠিত করি এবং রেকর্ড করি, তারপর সেই শব্দগুলো স্মরণ করি বা পড়ে সেগুলোকে কাজে লাগাই।

বৃহৎ ভাষা মডেলগুলিও একইভাবে শব্দ ব্যবহার করে জ্ঞান বর্ণনা করতে পারে এবং শব্দ পড়ে সেগুলোকে ব্যবহার করতে পারে।

বৃহৎ ভাষা মডেল, যা প্রাকৃতিক ভাষা প্রসেসর, সেগুলোর সুবিধা নিয়ে সংখ্যাভিত্তিক মেশিন লার্নিং-এর পরিবর্তে প্রাকৃতিক ভাষাভিত্তিক মেশিন লার্নিং সম্ভব হয়েছে।

ফলস্বরূপ, বৃহৎ ভাষা মডেলগুলির আগমনের ফলে একটি নতুন ক্ষেত্র উন্মোচিত হয়েছে: প্রাকৃতিক ভাষা মেশিন লার্নিং।

বৃহৎ ভাষা মডেলগুলির প্রি-ট্রেনিং হল প্রথাগত সংখ্যাগত মেশিন লার্নিং। এখানে বর্ণিত প্রাকৃতিক ভাষা মেশিন লার্নিং বলতে প্রি-ট্রেইন করা বৃহৎ ভাষা মডেলগুলি ব্যবহার করে একটি নতুন ধরনের মেশিন লার্নিংকে বোঝায়।

প্রাকৃতিক ভাষা মেশিন লার্নিং-এর মৌলিক মডেল

প্রাকৃতিক ভাষা মেশিন লার্নিং-এর এমন কিছু দিক রয়েছে যা প্রথাগত সংখ্যাগত মেশিন লার্নিং-এর সাথে সাদৃশ্যপূর্ণ, আবার কিছু দিক সম্পূর্ণ ভিন্ন।

প্রথমে, প্রাকৃতিক ভাষা মেশিন লার্নিং-এর একটি ধারণা পেতে, আমরা প্রথাগত সংখ্যাগত মেশিন লার্নিং-এর সাথে সাদৃশ্যপূর্ণ অংশগুলি একটি মৌলিক মডেল হিসাবে ব্যাখ্যা করব।

এখন থেকে, আমরা প্রি-ট্রেইন করা বৃহৎ ভাষা মডেলকে LLM হিসাবে উল্লেখ করব। দয়া করে মনে রাখবেন যে এই শেখার প্রক্রিয়ার সময় LLM-এর প্যারামিটারগুলির কোনো পরিবর্তন হয় না।

মৌলিক মডেলটি হল সুপারভাইজড লার্নিং, যা একটি ক্লাসিফিকেশন সমস্যাকে লক্ষ্য করে।

প্রশিক্ষণ ডেটার জন্য সঠিক উত্তর হিসাবে ইনপুট বাক্য এবং সেগুলোর শ্রেণিবিন্যাসের একাধিক জোড়া তৈরি করা হয়।

উদাহরণস্বরূপ, ধরা যাক একটি কোম্পানির একটি সাধারণ বিষয়ক বিভাগ (General Affairs Department) এবং একটি প্রশাসনিক বিষয়ক বিভাগ (Administrative Affairs Department) রয়েছে।

এই দুটি বিভাগের মধ্যে কাজের বিভাজন রয়েছে। "অফিসের লাইট বাল্ব নষ্ট হয়ে গেছে," "আমি আমার অ্যাক্সেস কার্ড ভুলে গেছি," অথবা "আমি সদর দফতরে প্রধান হল বুক করতে চাই" এর মতো ইনপুট বাক্যগুলির জন্য, শ্রেণিবিন্যাস নির্দেশ করে যে কোন বিভাগ – সাধারণ বিষয়ক বিভাগ না প্রশাসনিক বিষয়ক বিভাগ – দায়ী।

এই প্রশিক্ষণ ডেটা থেকে, শুধুমাত্র ইনপুট বাক্যগুলি বের করা হয় এবং LLM-এ ফিড করা হয়।

এখানে, একটি সিস্টেম প্রম্পট হিসাবে, আমরা ইচ্ছাকৃতভাবে উত্তর সীমাবদ্ধ করে বলি, "অনুগ্রহ করে উত্তর দিন যে এই জিজ্ঞাসার জন্য কোন বিভাগ, সাধারণ বিষয়ক বা প্রশাসনিক বিষয়ক, দায়ী। আপনার উত্তরে 'সাধারণ বিষয়ক' বা 'প্রশাসনিক বিষয়ক' ছাড়া অন্য কোনো অক্ষর অন্তর্ভুক্ত করবেন না।"

প্রাথমিকভাবে, LLM এই কোম্পানি সম্পর্কে কোনো জ্ঞান ছাড়াই উত্তর তৈরি করবে। স্বাভাবিকভাবেই, কিছু উত্তর ভুল হবে, আবার কিছু উত্তর দৈবক্রমে সঠিক হতে পারে।

প্রতিটি উত্তরের জন্য, শিক্ষক সিস্টেম নির্ধারণ করে যে এটি সঠিক নাকি ভুল। তারপর, ইনপুট বাক্য, LLM-এর উত্তর এবং বিচার ফলাফলের সংমিশ্রণ একটি নলেজ বেসে সংরক্ষণ করা হয়।

এই প্রক্রিয়াটি প্রশিক্ষণ ডেটার প্রায় অর্ধেক অংশের জন্য পুনরাবৃত্তি করা হয়।

প্রশিক্ষণ ডেটার বাকি অর্ধাংশের জন্য, একই প্রক্রিয়া চালানো হয়, তবে এইবার নলেজ বেসে রেকর্ড করা সমস্ত তথ্য LLM-এর জন্য সিস্টেম প্রম্পটে যোগ করা হয়।

এই সময়ে, নলেজ বেসে এই কোম্পানির সাধারণ বিষয়ক এবং প্রশাসনিক বিষয়ক বিভাগগুলির মধ্যে কাজের বিভাজন সম্পর্কে তথ্য রয়েছে, তাই প্রথম অর্ধাংশের ডেটার চেয়ে সঠিক উত্তর পাওয়ার সম্ভাবনা বেশি হওয়া উচিত।

এইভাবে, LLM এবং নলেজ বেসের সমন্বয়ে গঠিত একটি সিস্টেম এই কোম্পানির সাধারণ বিষয়ক এবং প্রশাসনিক বিষয়ক বিভাগগুলির মধ্যে কাজের বিভাজন শিখতে পারে।

শেখার প্রক্রিয়াটি নিজেই প্রথাগত সংখ্যাগত মেশিন লার্নিং-এর অনুরূপ। পার্থক্য হল যে শেখার ফলাফল LLM-এর মধ্যে নিউরাল নেটওয়ার্কের প্যারামিটারে নয়, বরং নলেজ বেসে প্রতিফলিত হয়। এবং নলেজ বেসে সংখ্যা নয়, প্রাকৃতিক ভাষা রেকর্ড করা হয়।

এটি প্রাকৃতিক ভাষা মেশিন লার্নিং-এর মৌলিক মডেল।

মৌলিক মডেলের বাস্তবতা

যারা LLM ব্যবহার করছেন তারা দ্রুতই বুঝতে পারবেন যে, এই মৌলিক মডেলে বাস্তবতার অভাব রয়েছে।

কারণ, সঠিক এবং ভুল উত্তর নির্ধারণের জন্য একটি শিক্ষক সিস্টেমের ঝামেলায় না গিয়ে, শুরু থেকেই প্রশিক্ষণের ডেটা সরাসরি সিস্টেম প্রম্পটে ইনপুট করা যেতে পারে।

তবে, মৌলিক মডেলটি প্রয়োগ করে এবং পরিস্থিতিটি সামান্য পরিবর্তন করে, এটি বাস্তবতা অর্জন করে।

উদাহরণস্বরূপ, ধরা যাক সাধারণ বিষয়ক এবং প্রশাসনিক বিষয়ক বিভাগগুলি যৌথভাবে একটি অনুসন্ধান ডেস্ক স্থাপন করেছে, এবং মানুষ আগত অনুসন্ধানগুলিকে স্বতন্ত্রভাবে উপযুক্ত বিভাগে বাছাই করে।

এই অনুসন্ধানগুলি এবং সেগুলির রুটিং ফলাফলগুলি একটি নলেজ বেসে যুক্ত করার জন্য একটি সাধারণ সিস্টেম তৈরি করা যেতে পারে।

তারপর, এই নলেজ বেস ব্যবহার করে, LLM নতুন অনুসন্ধানগুলিকে বিভাগগুলিতে রুটিং করার ক্ষেত্রে মানুষের থেকে দায়িত্ব নিতে পারে।

এই ক্ষেত্রে, যদি LLM প্রশাসনিক বিষয়ক বিভাগের জন্য উদ্দিষ্ট একটি অনুসন্ধান ভুলবশত সাধারণ বিষয়ক বিভাগে রুট করে, তাহলে সাধারণ বিষয়ক বিভাগের দায়িত্বপ্রাপ্ত ব্যক্তি সেই অনুসন্ধানটি আবার প্রশাসনিক বিষয়ক বিভাগে রুট করবেন। এই পুনঃ-রুটিং তথ্যও নলেজ বেসে রেকর্ড করা হয়।

রুটিং লগ রেকর্ড করার এই সহজ প্রক্রিয়াটি, LLM এবং নলেজ বেস সিস্টেমের সাথে মিলিত হয়ে প্রাকৃতিক ভাষা মেশিন লার্নিং-এর জন্য একটি বাস্তবসম্মত সুপারভাইজড মডেলে পরিণত হবে।

এখানে মূল বিষয় হলো, আবারও বলছি, LLM-এর মধ্যে নিউরাল নেটওয়ার্ক প্যারামিটারগুলি মোটেও পরিবর্তিত হয় না। এবং প্রতিক্রিয়া শিক্ষার ফলাফলগুলি সংখ্যাগত মান নয়, বরং প্রাকৃতিক ভাষার বাক্যগুলির সংকলন।

তাছাড়া, এই সিস্টেমটি নিঃসন্দেহে একটি মেশিন লার্নিং সিস্টেম, মানব লার্নিং সিস্টেম নয়।

অতএব, এটি মেশিন লার্নিং-এর একটি নতুন রূপ: প্রাকৃতিক ভাষার মাধ্যমে মেশিন লার্নিং।

প্রাকৃতিক ভাষা মেশিন লার্নিং-এর শক্তি

সংখ্যাগত মেশিন লার্নিং-এর বিপরীতে, প্রাকৃতিক ভাষা শেখার অনেক সুবিধা রয়েছে।

এক কথায় বলতে গেলে, এর সংজ্ঞায়িত বৈশিষ্ট্য হলো এর অপ্রতিরোধ্য শেখার দক্ষতা।

সংখ্যাগত মেশিন লার্নিং-এ সাধারণত প্রচুর পরিমাণে প্রশিক্ষণ ডেটা এবং পুনরাবৃত্তিমূলক শেখার প্রয়োজন হয়। প্রশিক্ষণ ডেটা প্রি-প্রসেসিং-এরও প্রয়োজন হয়।

প্রচুর পরিমাণে প্রশিক্ষণ ডেটার প্রয়োজন হয় কারণ যে বৈশিষ্ট্যগুলি শেখা দরকার তা একটি একক ডেটার মধ্যে থাকে না, বরং প্রচুর পরিমাণে ডেটার মধ্যে ছড়িয়ে থাকে।

এই কারণে, প্রকৃত কাঙ্ক্ষিত বৈশিষ্ট্যের মাত্রার বর্গ-পর্যায়ের প্রশিক্ষণ ডেটা প্রয়োজন হয়।

পুনরাবৃত্তিমূলক শেখার প্রয়োজন হয় কারণ একটি একক ফিডব্যাক লুপের সময় প্যারামিটারগুলির পরিবর্তন ছোট হতে হবে যাতে নিউরাল নেটওয়ার্ক প্যারামিটারগুলি স্থানীয় অপটিমাতে না পড়ে সঠিকভাবে শেখা হয়।

প্রশিক্ষণ ডেটার প্রি-প্রসেসিং, যেমন নর্মলাইজেশন এবং এজ এক্সট্রাকশন, প্রকৃত কাঙ্ক্ষিত বৈশিষ্ট্যগুলিকে হাইলাইট করার জন্য প্রয়োজনীয়। এই প্রি-প্রসেসিং-এর জন্যও উল্লেখযোগ্য প্রচেষ্টা প্রয়োজন।

উদাহরণস্বরূপ, যদি প্রশাসনিক এবং সাধারণ বিষয়ক বিভাগগুলির মধ্যে দায়িত্বের বিভাজন একটি ঐতিহ্যবাহী নিউরাল নেটওয়ার্ক ব্যবহার করে শেখা হয় এবং এর বৈশিষ্ট্যগুলি 50-মাত্রিক হয়, তবে কমপক্ষে 1000 বা তার বেশি প্রশিক্ষণ ডেটা পয়েন্টের প্রয়োজন হবে। উপরন্তু, এই 1000+ ডেটা পয়েন্টগুলিকে পর্যাপ্ত শেখার নির্ভুলতা অর্জনের জন্য প্রায় 100 বার পুনরাবৃত্তি করতে হতে পারে।

এছাড়াও, যদি এই 1000 ডেটা পয়েন্টে অপ্রয়োজনীয় শব্দ, শব্দের বানানের ভিন্নতা, বা বিভিন্ন শব্দ ক্রম এবং বাক্য গঠন থাকে, তবে শেখার দক্ষতা হ্রাস পাবে, অথবা অপ্রাসঙ্গিক বৈশিষ্ট্যগুলি শেখা হবে।

অতএব, অপ্রয়োজনীয় শব্দ বাদ দিতে, ভিন্নতা দূর করতে শব্দভাণ্ডারকে মানসম্মত করতে এবং শব্দ ক্রম ও বাক্য গঠনকে একীভূত করতে প্রি-প্রসেসিং অপরিহার্য।

অন্যদিকে, প্রাকৃতিক ভাষা মেশিন লার্নিং-এর জন্য কম প্রশিক্ষণ ডেটা প্রয়োজন হয়, একই প্রশিক্ষণ ডেটা নিয়ে পুনরাবৃত্তির প্রয়োজন হয় না এবং অনেক ক্ষেত্রে প্রি-প্রসেসিং-এরও প্রয়োজন হয় না।

যদি প্রশাসনিক এবং সাধারণ বিষয়ক বিভাগগুলির মধ্যে দায়িত্বের বিভাজনের বৈশিষ্ট্যগুলি 50-মাত্রিক হয়, তবে প্রতিটি মাত্রার সাথে সম্পর্কিত 50টি তথ্যই প্রায়শই যথেষ্ট।

তাছাড়া, এর অর্থ এই নয় যে 50টি পৃথক বাক্যের প্রয়োজন।

"A, B, C, এবং D সম্পর্কিত দায়িত্বগুলি প্রশাসনিক বিভাগ দ্বারা পরিচালিত হয়" এর মতো একটি একক বাক্যে চারটি মাত্রার তথ্য অন্তর্ভুক্ত থাকতে পারে।

উপরন্তু, ভাষাকে বিমূর্ত করে, একাধিক মাত্রার তথ্য একত্রিত করা যেতে পারে। "ভবনের ভোগ্যপণ্য এবং সরঞ্জামের রক্ষণাবেক্ষণের দায়িত্ব প্রশাসনিক বিভাগের" এর মতো একটি একক বাক্য আলোক বাল্ব প্রতিস্থাপন এবং স্বয়ংক্রিয় দরজার ত্রুটি সহ বিস্তৃত মাত্রার তথ্য একত্রিত করে।

এই বিমূর্ততা LLM-এর প্রি-ট্রেইন করা জ্ঞান এবং যুক্তি ক্ষমতাকে কাজে লাগায়, যার ফলে প্রয়োজনীয় প্রশিক্ষণ ডেটার পরিমাণ কমে যায়।

এবং, মৌলিকভাবে, প্রাকৃতিক ভাষা শেখার জন্য পুনরাবৃত্তিমূলক শেখার প্রয়োজন হয় না। একবার উল্লিখিত বাক্যটি জ্ঞানভান্ডারে যোগ করা হলে, শেখা সম্পূর্ণ হয়।

এছাড়াও, জ্ঞানের প্রি-প্রসেসিং-এর প্রয়োজন হয় না। এমনকি যদি প্রশাসনিক বা সাধারণ বিষয়ক বিভাগগুলির বিবরণ বিভিন্ন অন্যান্য বাক্যের সাথে মিশ্রিত থাকে, তবে সেগুলি এখনও জ্ঞান হিসাবে ব্যবহার করা যেতে পারে।

বিকল্পভাবে, কাঁচা ডেটা, যেমন পূর্ববর্তী উদাহরণে অনুসন্ধান এবং কার্যভারের লগ, প্রি-প্রসেসিং ছাড়াই অবিলম্বে প্রশিক্ষণ ডেটা হিসাবে ব্যবহার করা যেতে পারে।

এভাবে, প্রাকৃতিক ভাষা মেশিন লার্নিং সংখ্যাগত মেশিন লার্নিং-এর চেয়ে অনেক বেশি দক্ষতার সাথে শিখতে পারে।

উপসংহার

কম্পিউটারের উচ্চ-গতির সংখ্যাগত গণনা ক্ষমতার তুলনায়, বৃহৎ ভাষা মডেলগুলির প্রাকৃতিক ভাষা প্রক্রিয়াকরণের ক্ষমতা বেশ ধীর।

তবে, সংখ্যাগত মেশিন লার্নিং-এর তুলনায় প্রাকৃতিক ভাষা মেশিন লার্নিং আরও কার্যকর শিক্ষা প্রদান করে।

এই কার্যকারিতা উচ্চ-গতির সংখ্যাগত গণনা ক্ষমতা এবং ধীর প্রাকৃতিক ভাষা প্রক্রিয়াকরণ ক্ষমতার মধ্যেকার ব্যবধানকে অনেক বেশি ছাড়িয়ে যায়।

এছাড়াও, বৃহৎ ভাষা মডেলগুলি, যা সংখ্যাগত শিক্ষার মাধ্যমে আশ্চর্যজনক বিবর্তন লাভ করেছে, স্কেলিং আইন অনুযায়ী কেবল সাধারণ স্কেলিংয়ের মাধ্যমে ক্ষমতা বৃদ্ধিতে একটি সীমার কাছাকাছি চলে আসছে বলে মনে হয়।

সেক্ষেত্রে, প্রাকৃতিক ভাষা মেশিন লার্নিংয়ের মাধ্যমে ক্ষমতা বৃদ্ধির দিকে মনোযোগ স্থানান্তরিত হওয়ার সম্ভাবনা প্রবল।