ট্রান্সফার লার্নিং
ডিপ লার্নিং ব্যবহার করে আমরা যদি কোন সিস্টেম তৈরি করতে চাই, আমাদের প্রচুর ডেটা লাগবে। ঐ ডেটাকে ক্লিন করা, অপটাইমাইজ করা সহ অন্যান্য কাজে প্রচুর সময় যাবে। এই সমস্যা সমাধান করার একটা সহজ উপায় হচ্ছে ট্রান্সফার লার্নিং। বিশাল ডেটাসেটের উপর ট্রেইন করা একটা নিউররাল নেটকে নতুন একটা ডেটা সেটে এপ্লাই করার প্রক্রিয়া হচ্ছে ট্রান্সফার লার্নিং। প্রি-ট্রেইন্ড মডেল নিজের প্রজেক্টে ব্যবহার করার প্রক্রিয়া।
সফটওয়ার ডেভেলপমেন্টের প্রথম দিকে কেমন হতো? প্রতিটা কোম্পানিকে সফটওয়ারের প্রতিটা অংশ লাইন বাই লাইন লিখে নিতে হতো। এখন কেমন হয়? অনেক লাইব্রেরী, প্লাগিন তৈরি করা আছে। ওপেন সোর্স। নিজের প্রজেক্ট অনুযায়ী দরকারি লাইব্রেরিটা ইউজ করলেই কাজ অর্ধেকেরও বেশি কমে যায়। অনেক প্রজেক্ট ব্যবহারের জন্য বলা যায় কোন কোডই লেখা যায় না। ঠিক মত একটু কনফিগারেশন করে নিলেই হয়।
ঠিক একই কাজ মেশিন লার্নিং এর জন্য ট্রান্সফার লার্নিং দিয়ে করা যায়। আমাদের হয়তো কোন কোডই লিখতে হবে না, কোন ওপেন সোর্স মডেল নিজেদের প্রয়োজন অনুযায়ী কাস্টোমাইজ করে নিলেই কাজ হয়ে যাবে। দেখা গেলো নিজে পুরো মডেল লিখতে অনেক সময় লাগত, একুরেসিও ঠিক মত পাওয়া যেতো না। এছাড়া মডেল ট্রেইনের জন্য পর্যাপ্ত ডেটাও কালেক্ট করা সম্ভব হয়ে উঠত না।
আমরা যে সমস্যা নিয়ে কাজ করছি, দেখা গেলো আগে সিমিলার কাজ কেউ করে ট্রেনিং ডেটা সবার জন্য উন্মুক্ত করে দিল। আমাদের জন্য এখন কাজ করা সহজ হয়ে গেলো। ওপেনসোর্স মডেলটি নিয়ে নিজের প্রজেক্টে ইন্ট্রিগ্রেট করে দিলেই হলো। প্রয়োজন অনুযায়ী ঐ মডেল নিজেদের ডেটা দিয়ে ট্রেইন করে দিলে এক্যুরেসিও ভালো পাওয়া যাবে। এত কিছু লেখার কারণ হচ্ছে মেশিন লার্নিংও সহজ। চাইলে যে কেউ শিখে নিতে পারে। 🙂
প্রি-ট্রেইন্ড মডেল
ট্রেইন করা নেটওয়ার্ক সাধারণত ভবিষ্যৎ এ ব্যবহারের জন্য সেভ করা যায়। লার্জ ডেটাসেট এর উপর ট্রেইন করা এমন সেভ করা নেটওয়ার্ক হচ্ছে প্রি-ট্রেইন্ড মডেল। এই মডেল যে ভাবে আছে, সে ভাবেই ব্যবহার করা যায়। মানে যে উদ্দেশ্যে এই মডেলটি ট্রেইন করা হয়েছে, ঠিক সেই উদ্দেশ্যে ফিউচারে ব্যবহার করা যায়। অথবা এর ইনপুট লেয়ার এবং আউটপুট লেয়ার কাস্টোমাইজ করেও ব্যবহার করা যায়।
ট্রান্সফার লার্নিং এর জন্য অনেক গুলো প্রি ট্রেইন্ড মডেল রয়েছে। যেমন ইমেজের জন্য VGG19, Inceptionv3 (GoogLeNet), ResNet50, EfficientNet ইত্যাদি। ন্যাচারাল ল্যাঙ্গুয়েজ প্রসেসিং এর জন্য Google’s BERT, Microsoft’s CodeBERT, OpenAI’s GPT-3 ইত্যাদি। এগুলো ছাড়াও আরো অনেক গুলো প্রি ট্রেইন্ড মডেল রয়েছে নিজের প্রজেক্টের জন্য কোন মডেলটি উপযুক্ত, তা একটু খুঁজে নিতে হবে।
টেনসর ফ্লো হাব
টেনসর ফ্লো হাবে অনেক গুলো প্রি ট্রেইন্ড মডেল রয়েছে। আমরা চাইলে এগুলোর মধ্যে যেটা আমাদের প্রজেক্টের সাথে সবচেয়ে বেশি এপ্রোপ্রিয়েট, সেটা ব্যবহার করতে পারি।
প্রিট্রেইন্ড মডেল নিজের প্রজেক্টে ব্যবহার
প্রিট্রেইন্ড মডেল দুই ভাবে ব্যবহার করা যায়।
- কোন মডিফিকেশন ছাড়া যেভাবে রয়েছে, ঠিক সে ভাবে ব্যবহার করা।
- নিজেদের প্রয়োজন অনুযায়ী মডিফিকেশন করে ব্যবহার করা।
১) প্রিট্রেইন্ড মডেল মডিফিকেশন ছাড়া ব্যবহার করা
আমরা প্রথমে দেখব কিভাবে একটা প্রিট্রেইন্ড মডেল যেভাবে আছে, ঠিক সে ভাবে ব্যবহার করা যায়। আর এই প্রসেসটা ট্রান্সফার লার্নিং এর সবচেয়ে সহজ প্রক্রিয়া। প্রথমে প্রিট্রেইন্ড মডেলটি লোড করে নিতে হবে। এরপর যে কোন প্রিডিকশনের জন্য প্রস্তুত। আগেই জেনেছি অনেক গুলো প্রিট্রেইন্ড মডেল রয়েছে। আমরা বুঝার সুবিধার্থে MobileNet ব্যবহার করব। এটি মোবাইলের জন্য অপটিমাইজ হওয়ার কারণে রান করতে খুব একটা সময় লাগে না। চাইলে অন্য যে কোন মডেল ব্যবহার করতে পারেন। আর সব গুলো মডেল পাওয়া যাবে টেনসর ফ্লো হাবে। মডেল লোড করতে নিচের মত করে লিখতে পারি। কিভাবে কোন মডেলটি লোড করতে হবে, তা মডেলের পেইজে সাধারণত লেখা থাকে।
model = tf.keras.Sequential([
hub.KerasLayer("https://tfhub.dev/google/tf2-preview/mobilenet_v2/classification/4", output_shape=[1001])
])
বলা যায় এতটুকুতেই কাজ শেষ। এবার আমরা যে কোন ইমেজ প্রিডিক্ট করতে পারব। তার জন্য প্রথমে একটা ইমেজ ডাউনলোড করে নিব। Mobilenet এ ইনপুট হিসেবে 224*224 পিক্সেল ইমেজ দিতে হয়। তাই ডাউনলোডকৃত ইমেজকে রিসাইজ করে নিতে হবে। এবং এরপর ইমেজটিকে নরমালাইজ করে নিতে হবে।
IMAGE_RES = 224
predict_img = tf.keras.utils.get_file('image.jpg','https://upload.wikimedia.org/wikipedia/commons/thumb/4/43/AD2009Aug07_Natrix_natrix_01.jpg/640px-AD2009Aug07_Natrix_natrix_01.jpg')
predict_img = Image.open(predict_img).resize((IMAGE_RES, IMAGE_RES))
predict_img
predict_img = np.array(predict_img)/255.0 # data normalization
predict_img.shape
এবার ইমেজটি প্রিডিক্ট করার জন্য প্রস্তুত। টেন্সরফ্লো মডেল ইনপুট হিসেবে ব্যাচ ইমেজ নেয়, তাই সিঙ্গেল ইমেজকে ব্যাচ ইমেজে কনভার্ট করে নিতে হবে। তা করতে পারি এভাবেঃ
result = model.predict(predict_img[np.newaxis, ...]) result.shape
আমরা রেজাল্ট হিসেবে যে আউটপুট পাবো, তা হচ্ছে 1001 টা ক্লাসের মধ্যে ইমেজটি কোন ক্লাসে পড়ার সম্ভাবনা বেশি, তার একটা প্রোবাবিলিটি ভেক্টর। এই ভেক্টর থেকে ম্যাক্স ভ্যালুটা নিলেই আমরা পাচ্ছি ইমেজটা কিসের, সেই লেভেলের ইনডেক্স।
predicted_class = np.argmax(result[0], axis=-1) predicted_class
ফাইনালি এই ইনডেক্স ভ্যালু থেকে আমরা ইমেজটি কিসের, সেই নাম বের করে নিতে পারি। তার জন্য প্রথমে লেভেল ইনডেক্সটি ডাউনলোড করে নিতে হবে।
# get level name from prediction
labels_path = tf.keras.utils.get_file('ImageNetLabels.txt','https://storage.googleapis.com/download.tensorflow.org/data/ImageNetLabels.txt')
imagenet_labels = np.array(open(labels_path).read().splitlines())
plt.imshow(predict_img)
plt.axis('off')
predicted_class_name = imagenet_labels[predicted_class]
_ = plt.title("Prediction: " + predicted_class_name.title())
তাহলে পেয়ে গেলাম প্রিডিক্টেড ইমেজটির নাম।
এতটুকু পর্যন্ত যা করেছি, তা পাওয়া যাবে পাওয়া যাবে গুগল কোল্যাবে – Transfer Learning as is। পুরো কোডঃ
import matplotlib.pylab as plt
import tensorflow as tf
import tensorflow_hub as hub
from tensorflow.keras import layers
import numpy as np
import PIL.Image as Image
model = tf.keras.Sequential([
hub.KerasLayer("https://tfhub.dev/google/tf2-preview/mobilenet_v2/classification/4", output_shape=[1001])
])
IMAGE_RES = 224
predict_img = tf.keras.utils.get_file('image.jpg','https://upload.wikimedia.org/wikipedia/commons/thumb/4/43/AD2009Aug07_Natrix_natrix_01.jpg/640px-AD2009Aug07_Natrix_natrix_01.jpg')
predict_img = Image.open(predict_img).resize((IMAGE_RES, IMAGE_RES))
predict_img
predict_img = np.array(predict_img)/255.0 # data normalization
predict_img.shape
# convert single image array to batch dimension, cause models always want a batch of images to process
result = model.predict(predict_img[np.newaxis, ...])
result.shape
predicted_class = np.argmax(result[0], axis=-1)
predicted_class
# get level name from prediction
labels_path = tf.keras.utils.get_file('ImageNetLabels.txt','https://storage.googleapis.com/download.tensorflow.org/data/ImageNetLabels.txt')
imagenet_labels = np.array(open(labels_path).read().splitlines())
plt.imshow(predict_img)
plt.axis('off')
predicted_class_name = imagenet_labels[predicted_class]
_ = plt.title("Prediction: " + predicted_class_name.title())
২ঃ প্রিট্রেইন্ড মডেল কাস্টমাইজ করে ব্যবহার করা
প্রিট্রেইন্ড মডেল কাস্টোমাইজ করে আবার দুই ভাবে করা যায়।
- ফিচার এক্সট্রাকশন প্রক্রিয়া
- ফাইন টিউইং প্রক্রিয়া
প্রথমে দেখি ফিচার এক্সট্রাকশন করে কিভাবে প্রিট্রেইন্ড মডেল ব্যবহার করা যায়।
ফিচার এক্সট্রাকশনঃ
প্রিট্রেইন্ড মডেলের লার্নিং এক্সপেরিয়েন্স ব্যবহার নতুন ডেটাসেট থেকে ফিচার ব্যবহার করে নতুন মডেলের সাথে ব্যবহার করার পদ্ধতি হচ্ছে ফিচার এক্সট্রাকশন প্রক্রিয়া। এই প্রক্রিয়ায় আমরা আগে ট্রেইন করা মডেলের সাথে নতুন ক্লাসিফায়ার যুক্ত করব। সাধারণত এই প্রক্রিয়ায় যে প্রিট্রেইন্ড মডেল ব্যবহার করা হয়, সে মডেলটি হয় হেডলেস। মানে ইনপুট লেয়ার এবং আউটপুট লেয়ার বাদ দিয়ে মডেলটি লোড করা হয়। পরে ইনপুট এবং আউটপুট বা ক্লাসিফায়ার লেয়ার যুক্ত করে নতুন মডেল তৈরি করা হয়।
মডেল ফ্রিজিং
ফিচার এক্সট্রাকশন প্রক্রিয়ায় খেয়াল রাখতে হয় যেন প্রিট্রেইন্ড মডেল আপডেট না হয়ে যায়। আর এটা করা হয় প্রিট্রেইন্ড মডেল ভ্যারিয়েবল এর ভ্যালু নন ট্রেইএবল সেট করে। আর এই প্রক্রিয়ার নাম হচ্ছে মডেল ফ্রিজিং।
টেনসর ফ্লো হাবে প্রতিটা প্রিট্রেইন্ড মডেলের অনেক গুলো ভ্যারিয়েন্ট রয়েছে। এক একটা এক এক কাজের জন্য। প্রিট্রেইন্ড মডেল যেভাবে আছে, ঠিক ঐ ভাবে ব্যবহার করার সময় আমরা প্রিট্রেইন্ড মডেলের ক্লাসিফায়ার ভ্যারিয়েন্ট ব্যবহার করেছি। ফিচার এক্সট্রাকশন প্রক্রিয়ায় ফিচার ভেক্টর ভ্যারিয়েন্ট ব্যবহার করতে হবে। ফিচার এক্সট্রাকশন প্রসেসও খুব একটা কমপ্লিকেটেড না। প্রথমে যে মডেলটি আমরা ব্যবহার করব, তা লোড করে নিতে হবে। এই ক্ষেত্রে সাধারণত ফিচার ভেক্টর ভ্যারিয়েন্ট লোড করব।
# creating feature extractor URL = "https://tfhub.dev/google/tf2-preview/mobilenet_v2/feature_vector/4" feature_extractor = hub.KerasLayer(URL, input_shape=(IMAGE_RES, IMAGE_RES, 3))
এরপর বলে দিতে হবে এই ফিচার গুলো যেন ট্রেইন না হয়। আর তা করতে হবে এভাবেঃ
feature_extractor.trainable = False
এরপর আমরা নতুন যে মডেল তৈরি করব, সেখানে ক্লাসিফিকেশন লেয়ার যুক্ত করতে হবেঃ
model = tf.keras.Sequential([ feature_extractor, layers.Dense(num_classes) ])
এবার আমরা এই নতুন মডেলটি ট্রেইন করার জন্য প্রস্তুত!
model.fit(train_batches, epochs=EPOCHS, validation_data=validation_batches)
অনেক সহজ না? পুরো প্রজেক্ট পাওয়া যাবে গুগল কোল্যাবে। কোড গুলো এখানেও দিয়ে দিলামঃ
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
import tensorflow_hub as hub
import tensorflow_datasets as tfds
from tensorflow.keras import layers
import logging
logger = tf.get_logger()
logger.setLevel(logging.ERROR)
# data load and split
(training_set, validation_set), dataset_info = tfds.load(
'tf_flowers',
split=['train[:70%]', 'train[70%:]'],
with_info=True,
as_supervised=True,
)
num_classes = dataset_info.features['label'].num_classes
class_names = np.array(dataset_info.features['label'].names)
num_training_examples = 0
num_validation_examples = 0
for example in training_set:
num_training_examples += 1
for example in validation_set:
num_validation_examples += 1
# resize & normalize images & creating batch
IMAGE_RES = 224
def format_image(image, label):
image = tf.image.resize(image, (IMAGE_RES, IMAGE_RES))/255.0
return image, label
BATCH_SIZE = 32
train_batches = training_set.shuffle(num_training_examples//4).map(format_image).batch(BATCH_SIZE).prefetch(1)
validation_batches = validation_set.map(format_image).batch(BATCH_SIZE).prefetch(1)
# createing feature extractor
URL = "https://tfhub.dev/google/tf2-preview/mobilenet_v2/feature_vector/4"
feature_extractor = hub.KerasLayer(URL,
input_shape=(IMAGE_RES, IMAGE_RES, 3))
# Model freezing
feature_extractor.trainable = False
# attaching classification head
model = tf.keras.Sequential([
feature_extractor,
layers.Dense(num_classes)
])
model.compile(
optimizer='adam',
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
metrics=['accuracy'])
EPOCHS = 1
history = model.fit(train_batches,
epochs=EPOCHS,
validation_data=validation_batches)
print("Labels: ", label_batch)
print("Predicted labels: ", predicted_ids)
আরো এক ভাবে ট্রান্সফার লার্নিং ব্যবহার করা যায়। আর সে প্রক্রিয়ার নাম হচ্ছে ফাইন টিউনিং। ফিচার এক্সট্রাকশন প্রক্রিয়ায় আমরা প্রিট্রেইন্ড মডেলকে আর ট্রেইন করিনি। কিন্তু আমরা চাইলে এই প্রিট্রেইন্ড মডেলও ট্রেইন করতে পারি নিজেদের প্রয়োজন মত। আর এই প্রক্রিয়ার নামই হচ্ছে ফাইন টিউনিং। ইনশাহ আল্লাহ নেক্সটে তা নিয়ে বিস্তারিত লিখব।
এই সম্পর্কিত আরো কিছু লেখাঃ
- টেনসরফ্লো / TensorFlow – মেশিন লার্নিং লাইব্রেরী ইন্সটলেশন এবং ব্যবহার
- টেনসরফ্লো ব্যবহার করে নিউরাল নেটওয়ার্ক ট্রেনিং এবং প্রিডিকশন
- টেনসরফ্লো ব্যবহার করে হ্যান্ডরিটেন নাম্বার ক্লাসিফিকেশন
- কনভলিউশন নিউরাল নেটওয়ার্ক ব্যবহার করে ইমেজ ক্লাসিফিকেশন
এছাড়া আর্টিফিশিয়াল ইন্টিলিজেন্স এবং মেশিন লার্নিং নিয়ে সব গুলো লেখা পাওয়া যাবে এখানে।