تشخیص چهره با جاوا اسکریپت و ری اکت – راهنمای کاربردی


«تشخیص چهره» (Face Detection) و «بازشناسی چهره» (Face Recognition)، امروزه از جمله مباحث مهم و داغی هستند که توجه بسیاری از پژوهشگران و کسب و کارهای بزرگ، متوسط و کوچک را به خود جلب کردهاند. در این مطلب، روش بازشناسی چهره با استفاده از «ریاکت» (React) و «face-api.js» مورد بررسی قرار گرفته است. در مطلب تشخیص چهره با جاوا اسکریپت و ری اکت از تصاویر اعضای یک گروه موسیقی برای انجام کار تشخیص چهره استفاده شده است که احتمالا، تشخیص چهره آنها حتی با چشم انسانی هم کار دشواری است.
تشخیص چهره با جاوا اسکریپت و ری اکت
در ادامه، مبحث تشخیص چهره با جاوا اسکریپت و ری اکت مورد بررسی قرار گرفته است. «face-api.js» یک «رابط برنامهنویسی کاربردی» (Application Programming Interface) برای تشخیص چهره و بازشناسی چهره است که با «تنسورفلو دات جیاس» (TensorFlow.js) کار میکند. اکنون و با استفاده از این API، امکان آن وجود دارد که همه فرایندهای «یادگیری عمیق» (Deep Learning) روی مرورگر و بدون نیاز به کد بکاند لازم برای این کار، انجام شوند.
اکنون، بدون هرگونه کد بک-اند یا تنظیمات محیطی، تنها با داشتن یک میزبان وب استاتیک، میتوان امکان بازشناسی چهره با ریاکت و تنسورفلو را داشت و آن را روی هر دستگاه یا مرورگری اجرا کرد. البته، مرورگر باید امکان اجرای TensorFlow.js را داشته باشد. در پایان این مطلب، چگونگی استقرار این برنامه کاربردی ریاکت در صفحه گیتهاب، آموزش داده شده است.
همانطور که پیشتر نیز بیان شد، در اینجا پیادهسازی یک برنامه کاربردی تک صفحهای برای تشخیص و بازشناسی چهره، با استفاده از ریاکت و کتابخانه تشخیص چهره ace-api.js انجام میشود. این API با یک سیستم تشخیص چهره از پیش آموزش دیده شده، نقاط برحسته چهره (Face-Landmarks) و «تراز چهره» (Face-Alignment) را شناسایی میکند. بنابراین، نیازی به نوشتن مدل یادگیری عمیق در «تنسورفلو» (TensorFlow) نیست.
در واقع، کاربر حقیقتا نیازی به آن ندارد که با عملکرد یادگیری عمیق یا «شبکههای عصبی پیچشی» (Convolutional Neural Networks) آشنا باشد. تنها چیزی که کاربر نیاز به دانستن آن دارد، مفاهیم پایهای جاوا اسکریپت و ریاکت است. برای فراگیری جاوااسکریپت مطالعه مطلب «آموزش جاوا اسکریپت — مجموعه مقالات جامع وبلاگ فرادرس» توصیه میشود. همچنین، برای فراگیری ریاکت، مطالعه مطالب زیر توصیه میشود.
کدی که در این مطلب پیادهسازی شده، بسیار ساده است و جای نگرانی پیرامون یادگیری آن وجود ندارد. همچنین، توضیحات لازم پیرامون بخشهای مختلف کد، به طور کامل ارائه شده است.
توضیحات کوتاهی پیرامون تشخیص چهره
در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت توضیحاتی اجمالی پیرامون تشخیص چهره ارائه شده است. حالتی مفروض است که فردی به یک اداره دولتی مراجعه میکند. مسئول مربوطه، یک کپی از مستندات فرد را دریافت میکند. او از فرد میخواهد که اثبات کند خودش است. فرد برای این منظور، کارت هویتی خود مثلا شناسنامه یا کارت ملی را ارائه میکند. مسئول، نام فرد و تصویری او را در کارت شناسایی مشاهده و با فردی که در مقابل خودش نشسته مقایسه میکند. همچنین، در حالت پیشرفتهتری، اسم نوشته شده در کارت هویتی را وارد سیستم میکند تا از صحت کارت هویتی مطمئن شود و سپس، چهره فرد را با تصویر موجود روی کارت هویتی مقایسه میکند.
به همین شکل، در سیستم تشخیص چهره نیز اسم فرد به همراه اطلاعات چهره او ذخیره شده است. بنابراین، هنگامی که تصویر دیگری از فرد به سیستم داده میشود، سیستم تلاش میکند تا تشخیص دهد که آیا اطلاعات فرد صاحب تصویر در پایگاه داده خود دارد یا خیر و اگر دارد، اسم فرد و یا مشخصات کامل او را باز میگراند. این کار، توسط شبکه تشخیص چهره (Face Detection Network) انجام میشود. مدلی که در این پروژه برای کار تشخیص چهره استفاده شده، Tiny Face Detector نام دارد. دلیل این نامگذاری، سایز کوچک و موبایلپسند بودن آن است. API مورد استفاده در این پروژه، یک SSD mobileNet و MTCNN نیز برای تشخیصدهنده چهره استفاده میکند؛ اما در حال حاضر به ان پرداخته نخواهد شد.
هنگامی که چهره یا چهرهها توسط سیستم شناخته شدند، مدل تشخیصدهنده چهره یک جعبه محصورکننده را دور هر چهره ترسیم میکند و میگوید که چهرههای موجود در تصویر، در کدام محل قرار گرفتهاند. سپس، از شبکه علامتگذاری چهره (Face Landmark Network) برای علامتگذاری ۶۸ نقطه تصویر و استفاده از مدل تراز برای حصول اطمینان از اینکه چهره در مرکز قرار گرفته استفاده میشود. اینکار پیش از ارائه خوراک به شبکه تشخیص چهره (Face Recognition Network) انجام میشود.
Face Recognition Network یک شبکه عصبی از نوع RestNet-34 است که شناساگر چهره یا Face Descriptor را بازمیگرداند که یک بردار ویژگی شامل ۱۲۸ مقدار است. از این ۱۲۸ مقدار میتوان برای مقایسه چهرهها و تشخیص چهره در تصاویر استفاده کرد.
درست مانند یک اثر انگشت، شناساگر چهره یا Face Descriptor یک مقدار یکتا برای هر چهره است. Face Descriptor برای یک فرد خاص در تصاویر گوناگون، دارای مقادیر بسیار بسیار نزدیک و مشابهی است. در این پروژه، از فاصله اقلیدسی (Euclidean Distance) برای مقایسه استفاده شده است. اگر فاصله کمتر از آستانه تنظیم شده باشد، میتوان فهمید که دو تصویر متعلق به یک فرد هستند. باید توجه داشت که هر چه فاصله کمتر باشد، اطمینان بالاتر است.
معمولا، سیستم Face Descriptor برای هر فرد را به عنوان منبعی در کنار برچسب نام ان فرد نگهداری میکند. هنگامی که یک تصویر جدید به سیتسم داده میشود، سیستم Face Descriptor آن تصویر را با همه Face Descriptorهای تصایر موجود مقایسه میکند. اگر فاصله Face Descriptor تصویر جدید با هیچ یک از تصاویر موجود در پایگاه داده کمتر از آستانه نبود، تصویر به عنوان «ناشناس» (Unknown) تعیین میشود.
شایان توجه است که پیش از این، در مجله فرادرس طی مطالب گوناگونی به تشخیص چهره با استفاده از روشها و ابزارهای گوناگون پرداخته شد. برخی از این مطالب، در ادامه و برای مطالعه علاقهمندان، ارائه شده است.
- تشخیص چهره در پایتون با OpenCV و Dlib — از صفر تا صد
- تشخیص چهره در مرورگر با API جاوا اسکریپت — به زبان ساده
- پیادهسازی سیستم تشخیص چهره در متلب — راهنمای کاربردی
- API تشخیص چهره کروم — راهنمای کاربردی
- تشخیص چهره با فلاتر — راهنمای کاربردی
- بازشناسی چهره (Face Recognition) پیشرفته با استفاده از اکسل — به زبان ساده
- تشخیص لبخند در چهره — راهنمای کاربردی
در ادامه مطلب تشخیص چهره با جاوا اسکریپت و ری اکت کار پیادهسازی سیستم تشخیص چهره انجام میشود.
پیادهسازی سیستم تشخیص چهره با جاوا اسکریپت و ری اکت
در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت کار پیادهسازی سیستم تشخیص چهره با جاوا اسکریپت و ری اکت مورد بررسی قرار میگیرد. دو تابع وجود دارد که هدف، پیادهسازی آنها در این برنامه است.
یکی از این توابع برای شناسایی چهره از تصویر ورودی استفاده میشود و دیگری، چهره فرد را از یک ویدئو زنده ورودی (Live Video) تشخیص میدهد. کار با create-react-app، نصب react-router-dom و آغاز برنامه، شروع میشود.
1npx create-react-app react-face-recognition
2cd react-face-recognition
3npm i react-router-dom
4npm start
اکنون، باید مرورگر را باز کرد و به مسیر http://localhost:3000/ رفت. در صورتی که هنگام باز شدن صفحه، کاربر لوگو ریاکت را مشاهده کرد، یعنی شرایط برای ادامه کار مهیا است. اکنون، کاربر باید پوشه پروژه را با هر ویرایشگری که به آن علاقه دارد، باز کند. خروجی، باید چیزی شبیه به ساختار درختی زیر باشد.
react-face-recognition ├── README.md ├── node_modules ├── package.json ├── .gitignore ├── public │ ├── favicon.ico │ ├── index.html │ └── manifest.json └── src ├── App.css ├── App.js ├── App.test.js ├── index.css ├── index.js ├── logo.svg └── serviceWorker.js
اکنون، باید به src/App.js رفت و کد موجود را با کد زیر جایگزین کرد.
1import React, { Component } from 'react';
2import { Route, Router } from 'react-router-dom';
3import createHistory from 'history/createBrowserHistory';
4import './App.css';
5
6import Home from './views/Home';
7
8class App extends Component {
9 render() {
10 return (
11 <div className="App">
12 <Router history={createHistory()}>
13 <div className="route">
14 <Route exact path="/" component={Home} />
15 </div>
16 </Router>
17 </div>
18 );
19 }
20}
21
22export default App;
آنچه در اینجا آمده، تنها وارد کردن مولفه Home و ساخت یک «مسیر» (Route) به «/» به عنوان صفحه لندینگ است. این مولفه به سرعت ساخته میشود. کار با ساخت یک پوشه جدید src/views و ساخت یک فایل جدید Home.js درون این پوشه، انجام میشود. سپس، کد زیر را در فایل قرار داده و فایل، ذخیره میشود.
1import React, { Component } from 'react';
2import { Link } from 'react-router-dom';
3
4export default class Home extends Component {
5 render() {
6 return (
7 <div>
8 <h2>BNK48 Facial Recognition App</h2>
9 <li>
10 <Link to="/photo">Photo Input</Link>
11 </li>
12 <li>
13 <Link to="/camera">Video Camera</Link>
14 </li>
15 </div>
16 );
17 }
18}
در اینجا، دو لینک برای Photo Input ساخته شده است که لینک به "localhost:3000/photo" و Video Camera برای لینک به "localhost:3000/camera" هستند. اگر همه چیز به خوبی پیش برود، کاربر باید صفحهای مانند آنچه در زیر آمده است را مشاهده کند.
رابط برنامهنویسی کاربردی جاوا اسکریپت برای تشخیص چهره یا همان Face API
در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت و پیش از آنکه کار ساخت صفحه جدید ادامه پیدا کند، باید face-api.js را نصب کرد و فایل API را برای متصل شدن به ریاکت با استفاده از API ساخت. اکنون، به کنسول بازگشته و کتابخانه نصب میشود.
1npm i face-api.js
کتابخانه با TensorFlow.jsو همه مولفههایی که لازم است، به جز وزنهای مدل، ارائه شده است. برای کاربرانی که با مفهوم وزهای مدل آشنایی ندارند، در ادامه توضیحاتی پیرامون این موضوع داده میشود. وزنهای مدل، در واقع وزنهای «شبکه عصبی» (Neural Network) است که با یک مجموعه داده بزرگ آموزش داده شده است. در بررسی موردی که در این مطلب در حال انجام است، مجموعه داده در واقع هزاران تصویر از چهره انسان است.
با توجه به آنکه افراد زیادی تاکنون مدل را آموزش دادهاند، تنها چیزی که در اینجا نیاز است، به دست آوردن وزنهای لازم برای استفاده و قرار دادن آنها در پروژه به صورت دستی است. همه وزنهای این رابط برنامهنویسی کاربردی را میتوان از اینجا [+] به دست آورد.
اکنون، پوشه جدید public/models برای قرار دادن همه وزنهای مدل در آن ساخته میشود. سپس، همه وزنهای لازم از پوشه دانلود میشود. همانطور که پیش از این بیان شد، در اینجا از مدل «Tiny Face Detector» استفاده میشود. بنابراین نیازی به مدلهای SSD MobileNet و MTCNN نیست. باید اطمینان حاصل کرد که همه وزنها در پوشه public/models به صورت زیر قرار دارند. در غیر این صورت، مدلها بدون وزنهای مناسب به درستی کار نخواهند کرد.
react-face-recognition ├── README.md ├── node_modules ├── package.json ├── .gitignore ├── public │ ├── models │ │ ├── face_landmark_68_tiny_model-shard1 │ │ ├── face_landmark_68_tiny_model-weights_manifest.json │ │ ├── face_recognition_model-shard1 │ │ ├── face_recognition_model-shard2 │ │ ├── face_recognition_model-weights_manifest.json │ │ ├── tiny_face_detector_model-shard1 │ │ └── tiny_face_detector_model-weights_manifest.json │ ├── favicon.ico │ ├── index.html │ └── manifest.json
اکنون به عقب بازگشته و یک پوشه جدید برای API به صورت src/api و یک فایل جدید face.js درون این پوشه، ساخته میشود. آنچه در اینجا انجام خواهد شد، بارگذاری مدل و ساخت تابعی برای خوراک دادن به رابط برنامهنویسی کاربردی و بازگرداندن همه توصیفات چهره و همچنین، مقایسه توصیفگرها برای شناسایی چهره است. این توابع اکسپورت میشوند و بعدا در مولفههای ریاکت (React Components) مورد استفاده قرار میگیرند.
1import * as faceapi from 'face-api.js';
2
3// Load models and weights
4export async function loadModels() {
5 const MODEL_URL = process.env.PUBLIC_URL + '/models';
6 await faceapi.loadTinyFaceDetectorModel(MODEL_URL);
7 await faceapi.loadFaceLandmarkTinyModel(MODEL_URL);
8 await faceapi.loadFaceRecognitionModel(MODEL_URL);
9}
10
11export async function getFullFaceDescription(blob, inputSize = 512) {
12 // tiny_face_detector options
13 let scoreThreshold = 0.5;
14 const OPTION = new faceapi.TinyFaceDetectorOptions({
15 inputSize,
16 scoreThreshold
17 });
18 const useTinyModel = true;
19
20 // fetch image to api
21 let img = await faceapi.fetchImage(blob);
22
23 // detect all faces and generate full description from image
24 // including landmark and descriptor of each face
25 let fullDesc = await faceapi
26 .detectAllFaces(img, OPTION)
27 .withFaceLandmarks(useTinyModel)
28 .withFaceDescriptors();
29 return fullDesc;
30}
دو بخش مهم در این فایل API در اینجا وجود دارد. اولین مورد، بارگذاری مدلها و وزنها با تابع loadModels() است. در اینجا، تنها مدلهای Face Landmark Tiny Model ،Tiny Face Detector و Face Recognition بارگذاری میشوند.
بخش دیگر، تابع getFullFaceDescription() است که حباب تصویر را به عنوان ورودی دریافت کرده و توصیف کامل چهره را باز میگرداند. این تابع از تابع رابط برنامهنویسی کاربردی faceapi.fetchImage() برای «واکشی» (Fetch) حباب تصویر به API استفاده میکند.
سپس، faceapi.detectAllFaces() این تصویر را دریافت کرده و همه چهرهها را در آن پیدا میکند. در ادامه، withFaceLandmarks() تعداد ۶۸ نقطه برجسته چهره را پیش از استفاده از withFaceDescriptors() برای بازگرداندن ویژگی چهره از ۱۲۸ مقدار، به صورت Float32Array ترسیم میکند.
شایان ذکر است که از تصویر ۵۱۲ پیکسلی برای تصویر ورودی استفاده خواهد شد و از ۱۶۰ پیکسل بعدا برای ورودی ویدئو استفاده میشود. این کار، توسط API توصیه شده است. اکنون، باید تصویر زیر در پوشه جدید src/img ذخیره و test.jpg نامگذاری شود. این تصویر، در واقع تصویر تست، برای تست برنامه کاربردی است.
در ادامه مطلب تشخیص چهره با جاوا اسکریپت و ری اکت فایل جدید src/views/ImageInput.js ساخته میشود. این فایل، مولفه را به ورودی نمایش و فایل تصویر را نشان میدهد.
1import React, { Component } from 'react';
2import { withRouter } from 'react-router-dom';
3import { loadModels, getFullFaceDescription } from '../api/face';
4
5// Import image to test API
6const testImg = require('../img/test.jpg');
7
8// Initial State
9const INIT_STATE = {
10 imageURL: testImg,
11 fullDesc: null
12};
13
14class ImageInput extends Component {
15 constructor(props) {
16 super(props);
17 this.state = { ...INIT_STATE };
18 }
19
20 componentWillMount = async () => {
21 await loadModels();
22 await this.handleImage(this.state.imageURL);
23 };
24
25 handleImage = async (image = this.state.imageURL) => {
26 await getFullFaceDescription(image).then(fullDesc => {
27 console.log(fullDesc);
28 this.setState({ fullDesc });
29 });
30 };
31
32 render() {
33 const { imageURL } = this.state;
34 return (
35 <div>
36 <img src={imageURL} alt="imageURL" />
37 </div>
38 );
39 }
40}
41
42export default withRouter(ImageInput);
این مولفه، در این لحظه، تنها تصویر تست src/img/test.jpg را نمایش داده و شروع به بارگذاری مدلهای API به مرورگر میکند که چند ثانیه زمان میبرد. پس از آن، تصویر به API خوراک داده میشود که توصیف کامل چهره را دریافت کند. میتوان fullDesc بازگردانده شده در state را برای استفاده آتی ذخیره کرد و جزئیات آن را در console.log مشاهده کرد. اما پیش از آن، نیاز به ایمپورت کردن مولفه ImageInput در فایل src/App.js است. همچنین، باید یک Route برای photo/ ساخت. با استفاده از قطعه کد زیر، میتوان این کار را انجام داد.
1import React, { Component } from 'react';
2import { Route, Router } from 'react-router-dom';
3import createHistory from 'history/createBrowserHistory';
4import './App.css';
5
6import Home from './views/Home';
7import ImageInput from './views/ImageInput';
8
9class App extends Component {
10 render() {
11 return (
12 <div className="App">
13 <Router history={createHistory()}>
14 <div className="route">
15 <Route exact path="/" component={Home} />
16 <Route exact path="/photo" component={ImageInput} />
17 </div>
18 </Router>
19 </div>
20 );
21 }
22}
23
24export default App;
اکنون، اگر کاربر به صفحه http://localhost:3000 مراجعه و روی Photo Input کلید کند، باید نمایش تصویر را ببینید. اگر کنسول مروگر بررسی شود، باید Full Face Description از این تصویر به صورت زیر مشاهده شود.
در ادامه مطلب تشخیص چهره با جاوا اسکریپت و ری اکت بحث ترسیم جعبه تشخیص چهره مورد بررسی قرار گرفته است.
جعبه تشخیص چهره
همانطور که میتوان مشاهده کرد، توصیف حاوی همه اطلاعات تشخیص چهره مورد نیاز در این پروژه، شامل descriptor و detection است. درون detection، اطلاعات جعبه مانند مختصات شامل x y top bottom left right height width قرار میگیرد.
کتابخانه face-api.js با تابعی برای ترسیم جعبه تشخیص تصویر با استفاده از بوم HTML ارائه میشود که واقعا مناسب است. اما با توجه به اینکه از ریاکت استفاده میشود، چرا جعبه تشخیص تصویر با CSS ترسیم نمیشود؟ اکنون، میتوان جعبه و نمایش تشخیص را با بهرهگیری از ریاکت انجام داد.
آنچه اکنون کاربر قصد دارد انجام دهد، استفاده از اطلاعات box تشخیص برای جایگذاری جعبه چهره روی تصویر است. همچنین، میتوان نام هر چهره تشخیص داده شده را با برنامهکاربردی، روی آن نمایش داد. این همان روشی است که با استفاده از آن، drawBox به مولفه ImageInput اضافه شده است. در ادامه، تگ input اضافه میشود، بنابراین میتوان تصویر ورودی را تغییر داد.
1import React, { Component } from 'react';
2import { withRouter } from 'react-router-dom';
3import { loadModels, getFullFaceDescription } from '../api/face';
4
5// Import image to test API
6const testImg = require('../img/test.jpg');
7
8// Initial State
9const INIT_STATE = {
10 imageURL: testImg,
11 fullDesc: null,
12 detections: null
13};
14
15class ImageInput extends Component {
16 constructor(props) {
17 super(props);
18 this.state = { ...INIT_STATE };
19 }
20
21 componentWillMount = async () => {
22 await loadModels();
23 await this.handleImage(this.state.imageURL);
24 };
25
26 handleImage = async (image = this.state.imageURL) => {
27 await getFullFaceDescription(image).then(fullDesc => {
28 if (!!fullDesc) {
29 this.setState({
30 fullDesc,
31 detections: fullDesc.map(fd => fd.detection)
32 });
33 }
34 });
35 };
36
37 handleFileChange = async event => {
38 this.resetState();
39 await this.setState({
40 imageURL: URL.createObjectURL(event.target.files[0]),
41 loading: true
42 });
43 this.handleImage();
44 };
45
46 resetState = () => {
47 this.setState({ ...INIT_STATE });
48 };
49
50 render() {
51 const { imageURL, detections } = this.state;
52
53 let drawBox = null;
54 if (!!detections) {
55 drawBox = detections.map((detection, i) => {
56 let _H = detection.box.height;
57 let _W = detection.box.width;
58 let _X = detection.box._x;
59 let _Y = detection.box._y;
60 return (
61 <div key={i}>
62 <div
63 style={{
64 position: 'absolute',
65 border: 'solid',
66 borderColor: 'blue',
67 height: _H,
68 width: _W,
69 transform: `translate(${_X}px,${_Y}px)`
70 }}
71 />
72 </div>
73 );
74 });
75 }
76
77 return (
78 <div>
79 <input
80 id="myFileUpload"
81 type="file"
82 onChange={this.handleFileChange}
83 accept=".jpg, .jpeg, .png"
84 />
85 <div style={{ position: 'relative' }}>
86 <div style={{ position: 'absolute' }}>
87 <img src={imageURL} alt="imageURL" />
88 </div>
89 {!!drawBox ? drawBox : null}
90 </div>
91 </div>
92 );
93 }
94}
95
96export default withRouter(ImageInput);
با استفاده از CSS در ریاکت، میتوان همه جعبههای تصویر را روی تصویری مانند این قرار داد. اگر تصویری با تعداد چهرههای بیشتر استفاده شود، جعبههای بیشتری نیز روی تصویر مشاهده میشود.
بازشناسی چهره
اکنون، در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت بخش ساده کار از راه رسید. برای شناسایی یک فرد، نیاز به حداقل یک تصویر منبع برای استخراج ۱۲۸ مقدار از بردار ویژگیها یا descriptor از تصویر است. رابط برنامهنویسی کاربردی از تابع LabeledFaceDescriptors برای استخراج برچسب از توصیفگرها و نام برای هر فردی که قصد آن شناسایی است، بهره میبرد. این برچسب، به رابط برنامهنویسی کاربردی همراه با پرس و جوی descriptor برای تطبیق فرد، خوراک میدهد. اما پیش از آن، نیاز به فراهم کردن یک پروفایل از نام و توصیفگرها است.
پروفایل چهره
در حال حاضر، یک مرجع تصویری برای شخصیت Cherprang وجود دارد. بنابراین، از descriptor آن میتوان برای ساخت یک پروفایل استفاده کرد. آنچه در این وهله قصد انجام آن وجود دارد، ساخت یک فایل JSON و پوشه src/descriptors/bnk48.json است. این فایل حاوی اسم عضو گروه و توصیفگرها از تصویر مرجع آنها است. در ادامه، اولین فایل نمونه با تنها یک descriptor از تصویر، ارائه شده است.
1{
2 "Cherprang": {
3 "name": "เฌอปราง",
4 "descriptors": [
5 [-0.08113786578178406,0.05256778374314308,0.009473100304603577,-0.10561250895261765,-0.1783013790845871,-0.04459364339709282,-0.09838695079088211,-0.11281408369541168,0.15290355682373047,-0.12802188098430634,0.22490034997463226,-0.0876401960849762,-0.20344389975070953,-0.06546909362077713,-0.09518688917160034,0.21771210432052612,-0.1978156566619873,-0.20811164379119873,-0.005263347178697586,0.022171149030327797,0.08166252076625824,-0.024958046153187752,-0.008690833114087582,0.07264935970306396,-0.09877212345600128,-0.32639357447624207,-0.07010464370250702,-0.05077863112092018,-0.06450583040714264,-0.08223631232976913,0.03569770231842995,0.0591503381729126,-0.19877424836158752,0.005495572462677956,0.032966941595077515,0.10699400305747986,0.00043915724381804466,-0.10360816866159439,0.17986394464969635,-0.040484149008989334,-0.30697202682495117,0.03211132436990738,0.08842744678258896,0.19950658082962036,0.15933744609355927,-0.03205663338303566,0.0013319365680217743,-0.16289959847927094,0.14904619753360748,-0.15430817008018494,0.0096973218023777,0.14715969562530518,0.08346439152956009,0.031750328838825226,-0.016189731657505035,-0.1357622593641281,0.03173140063881874,0.1332130879163742,-0.1280241757631302,-0.03812456876039505,0.10302945971488953,-0.06710688769817352,-0.0045883068814873695,-0.18414227664470673,0.19671869277954102,0.05899167060852051,-0.13076898455619812,-0.2127394676208496,0.09676400572061539,-0.15055659413337708,-0.1203978881239891,0.0671667754650116,-0.15655417740345,-0.21337451040744781,-0.33455413579940796,0.0025228180456906557,0.32778817415237427,0.12706099450588226,-0.18636029958724976,0.077443927526474,0.04969285428524017,0.0199972465634346,0.04955039545893669,0.18967756628990173,-0.0021310225129127502,0.10583700984716415,-0.09680759161710739,-0.0061607323586940765,0.237107053399086,-0.07061111927032471,-0.0200827457010746,0.20259839296340942,-0.025431372225284576,0.097686767578125,0.024423770606517792,-0.0027051493525505066,-0.05065762251615524,0.05029483884572983,-0.18550457060337067,0.04197317361831665,-0.06792200356721878,0.0047242967411875725,-0.020428016781806946,0.061017416417598724,-0.0777672529220581,0.09362616389989853,-0.018073776736855507,0.00793382991105318,-0.11228518187999725,0.011685803532600403,-0.09283971041440964,-0.05933531001210213,0.12439746409654617,-0.177815243601799,0.20367340743541718,0.12916350364685059,0.16568998992443085,0.14472319185733795,0.18697629868984222,0.07876216620206833,-0.025242770090699196,-0.02333880588412285,-0.17500267922878265,0.011992575600743294,0.09926775842905045,-0.05089148133993149,0.1372077465057373,0.017258809879422188]
6 ]
7 }
8}
اگر همه تصاویر از همه اعضا موجود باشد، میتوان descriptor را اضافه و یک به یک نامگذاری کرد تا پروفایل چهره کامل شود. در اینجا از ۵ تا ۱۰ تصویر از هر عضو برای ساخت این پروفایل کامل تصویر استفاده شده است. بنابراین، مخاطبان میتوانند این فایل را به سادگی از اینجا [+] دانلود و src/descriptors/bnk48.json را جایگزین کند.
اندازه فایل در حدود یک مگابایت برای کل اعضا است که برای ارزیابی برنامه کاربردی مناسب به نظر میرسد. اما در دنیای واقعی، ممکن است نیاز به ذخیرهسازی همه پروفایلهای تصویر در پایگاه داده باشد، بنابراین نیازی به نگرانی پیرامون سایز فایل نیست. اما در عوض باید از سمت سرور برای اجرای فرایند بازشناسی تصویر استفاده کرد.
تطبیقدهنده چهره
در گام بعدی، نیاز به ساخت labeledDescriptors و faceMatcher برای وظیفه بازشناسی تصویر است. اکنون، به src/api/face.js بازگشته و سپس، تابع زیر به فایل اضافه میشود.
1// face.js code...
2
3const maxDescriptorDistance = 0.5;
4export async function createMatcher(faceProfile) {
5 // Create labeled descriptors of member from profile
6 let members = Object.keys(faceProfile);
7 let labeledDescriptors = members.map(
8 member =>
9 new faceapi.LabeledFaceDescriptors(
10 faceProfile[member].name,
11 faceProfile[member].descriptors.map(
12 descriptor => new Float32Array(descriptor)
13 )
14 )
15 );
16
17 // Create face matcher (maximum descriptor distance is 0.5)
18 let faceMatcher = new faceapi.FaceMatcher(
19 labeledDescriptors,
20 maxDescriptorDistance
21 );
22 return faceMatcher;
23}
این تابع، یک پروفایل چهره (فایل JSON) را به عنوان ورودی دریافت و labeledDescriptors را از توصیفگر هر عضو با نام آن به عنوان برچسب میسازد. سپس، میتوان faceMatcher را با برچسب ساخت و خروجی گرفت (Export). ممکن است این موضوع توجه مخاطبان را به خود جلب کرده باشد که maxDescriptorDistance برابر با 0.5 پیکربندی شده است. این آستانه «فاصله اقلیدسی» (Euclidean Distance) برای تعیین آن است که توصیفگر مرجع و توصیفگر کوئری به اندازه کافی به یکدیگر نزدیک هستند که مفهومی داشته باشند.
مقدار پیشفرض رابط برنامهنویسی کاربردی برابر با 0.6 است که برای موارد عمومی، به اندازه کافی خوب محسوب میشود. اما ۰.۵ دقیقتر است و خطای کمتری نیز در این مثال دارد، زیرا چهره اشخاصی که تصاویر آنها در در این مثال مورد استفاده قرار گرفته است، بسیار شبیه به هم هستند. با توجه به آنکه تابع آماده است، برای پایان دادن به کد، به src/views/ImageInput.js بازگشته میشود. نسخه نهایی به صورت زیر است.
1import React, { Component } from 'react';
2import { withRouter } from 'react-router-dom';
3import { loadModels, getFullFaceDescription, createMatcher } from '../api/face';
4
5// Import image to test API
6const testImg = require('../img/test.jpg');
7
8// Import face profile
9const JSON_PROFILE = require('../descriptors/bnk48.json');
10
11// Initial State
12const INIT_STATE = {
13 imageURL: testImg,
14 fullDesc: null,
15 detections: null,
16 descriptors: null,
17 match: null
18};
19
20class ImageInput extends Component {
21 constructor(props) {
22 super(props);
23 this.state = { ...INIT_STATE, faceMatcher: null };
24 }
25
26 componentWillMount = async () => {
27 await loadModels();
28 this.setState({ faceMatcher: await createMatcher(JSON_PROFILE) });
29 await this.handleImage(this.state.imageURL);
30 };
31
32 handleImage = async (image = this.state.imageURL) => {
33 await getFullFaceDescription(image).then(fullDesc => {
34 if (!!fullDesc) {
35 this.setState({
36 fullDesc,
37 detections: fullDesc.map(fd => fd.detection),
38 descriptors: fullDesc.map(fd => fd.descriptor)
39 });
40 }
41 });
42
43 if (!!this.state.descriptors && !!this.state.faceMatcher) {
44 let match = await this.state.descriptors.map(descriptor =>
45 this.state.faceMatcher.findBestMatch(descriptor)
46 );
47 this.setState({ match });
48 }
49 };
50
51 handleFileChange = async event => {
52 this.resetState();
53 await this.setState({
54 imageURL: URL.createObjectURL(event.target.files[0]),
55 loading: true
56 });
57 this.handleImage();
58 };
59
60 resetState = () => {
61 this.setState({ ...INIT_STATE });
62 };
63
64 render() {
65 const { imageURL, detections, match } = this.state;
66
67 let drawBox = null;
68 if (!!detections) {
69 drawBox = detections.map((detection, i) => {
70 let _H = detection.box.height;
71 let _W = detection.box.width;
72 let _X = detection.box._x;
73 let _Y = detection.box._y;
74 return (
75 <div key={i}>
76 <div
77 style={{
78 position: 'absolute',
79 border: 'solid',
80 borderColor: 'blue',
81 height: _H,
82 width: _W,
83 transform: `translate(${_X}px,${_Y}px)`
84 }}
85 >
86 {!!match && !!match[i] ? (
87 <p
88 style={{
89 backgroundColor: 'blue',
90 border: 'solid',
91 borderColor: 'blue',
92 width: _W,
93 marginTop: 0,
94 color: '#fff',
95 transform: `translate(-3px,${_H}px)`
96 }}
97 >
98 {match[i]._label}
99 </p>
100 ) : null}
101 </div>
102 </div>
103 );
104 });
105 }
106
107 return (
108 <div>
109 <input
110 id="myFileUpload"
111 type="file"
112 onChange={this.handleFileChange}
113 accept=".jpg, .jpeg, .png"
114 />
115 <div style={{ position: 'relative' }}>
116 <div style={{ position: 'absolute' }}>
117 <img src={imageURL} alt="imageURL" />
118 </div>
119 {!!drawBox ? drawBox : null}
120 </div>
121 </div>
122 );
123 }
124}
125
126export default withRouter(ImageInput);
در این کد نهایی، تابع createMatcher از face.js بازیابی میشود و faceMatcher با پروفایل چهرهی که آماده شده، ساخته میشود. درون تابع handleImage()، پس از آنکه fullDesc از تصویر گرفته شد، descriptors نگاشت و بهترین match برای هر تصویر یافت میشود. سپس، از تگ p و CSS برای نمایش بهترین تطبیق زیر هر جعبه تشخیص چهره، استفاده میشود. نمایی از این مورد در تصویر زیر ارائه شده است.
افرادی که پروفایل چهره کامل را دانلود کردهاند [+] میتوانند تصویر را با تصویر زیر جایگزین و نتیجه سیستم تشخیص چهره را مشاهده کنند.
در ادامه مطلب تشخیص چهره با جاوا اسکریپت و ری اکت کار تشخیص چهره روی ورودی ویدئوی زنده انجام میشود.
ورودی ویدئو زنده
در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت روش تشخیص چهره با ویدئو زنده، آموزش داده شده است. در اینجا، ویدئوی زنده با استفاده از React-Webcam به face-api.js داده میشود.
در ادامه، کار با نصب کتابخانه لازم، انجام میشود.
1npm i react-webcam
دوباره، پیش از ساخت یک مولفه جدید، نیاز به اضافه کردن یک مسیر «Route» برای ویدئوی ورودی در /src/App.js است. مولفه VideoInput خیلی زود ساخته خواهد شد.
1import React, { Component } from 'react';
2import { Route, Router } from 'react-router-dom';
3import createHistory from 'history/createBrowserHistory';
4import './App.css';
5
6import Home from './views/Home';
7import ImageInput from './views/ImageInput';
8import VideoInput from './views/VideoInput';
9
10class App extends Component {
11 render() {
12 return (
13 <div className="App">
14 <Router history={createHistory()}>
15 <div className="route">
16 <Route exact path="/" component={Home} />
17 <Route exact path="/photo" component={ImageInput} />
18 <Route exact path="/camera" component={VideoInput} />
19 </div>
20 </Router>
21 </div>
22 );
23 }
24}
25
26export default App;
مولفه ویدئوی ورودی
اکنون، فایل جدید src/views/VideoInput.js ساخته میشود. سپس، کد زیر در آن کپی و فایل ذخیره میشود. کد کامل برای این مولفه، در ادامه آمده است.
1import React, { Component } from 'react';
2import { withRouter } from 'react-router-dom';
3import Webcam from 'react-webcam';
4import { loadModels, getFullFaceDescription, createMatcher } from '../api/face';
5
6// Import face profile
7const JSON_PROFILE = require('../descriptors/bnk48.json');
8
9const WIDTH = 420;
10const HEIGHT = 420;
11const inputSize = 160;
12
13class VideoInput extends Component {
14 constructor(props) {
15 super(props);
16 this.webcam = React.createRef();
17 this.state = {
18 fullDesc: null,
19 detections: null,
20 descriptors: null,
21 faceMatcher: null,
22 match: null,
23 facingMode: null
24 };
25 }
26
27 componentWillMount = async () => {
28 await loadModels();
29 this.setState({ faceMatcher: await createMatcher(JSON_PROFILE) });
30 this.setInputDevice();
31 };
32
33 setInputDevice = () => {
34 navigator.mediaDevices.enumerateDevices().then(async devices => {
35 let inputDevice = await devices.filter(
36 device => device.kind === 'videoinput'
37 );
38 if (inputDevice.length < 2) {
39 await this.setState({
40 facingMode: 'user'
41 });
42 } else {
43 await this.setState({
44 facingMode: { exact: 'environment' }
45 });
46 }
47 this.startCapture();
48 });
49 };
50
51 startCapture = () => {
52 this.interval = setInterval(() => {
53 this.capture();
54 }, 1500);
55 };
56
57 componentWillUnmount() {
58 clearInterval(this.interval);
59 }
60
61 capture = async () => {
62 if (!!this.webcam.current) {
63 await getFullFaceDescription(
64 this.webcam.current.getScreenshot(),
65 inputSize
66 ).then(fullDesc => {
67 if (!!fullDesc) {
68 this.setState({
69 detections: fullDesc.map(fd => fd.detection),
70 descriptors: fullDesc.map(fd => fd.descriptor)
71 });
72 }
73 });
74
75 if (!!this.state.descriptors && !!this.state.faceMatcher) {
76 let match = await this.state.descriptors.map(descriptor =>
77 this.state.faceMatcher.findBestMatch(descriptor)
78 );
79 this.setState({ match });
80 }
81 }
82 };
83
84 render() {
85 const { detections, match, facingMode } = this.state;
86 let videoConstraints = null;
87 let camera = '';
88 if (!!facingMode) {
89 videoConstraints = {
90 width: WIDTH,
91 height: HEIGHT,
92 facingMode: facingMode
93 };
94 if (facingMode === 'user') {
95 camera = 'Front';
96 } else {
97 camera = 'Back';
98 }
99 }
100
101 let drawBox = null;
102 if (!!detections) {
103 drawBox = detections.map((detection, i) => {
104 let _H = detection.box.height;
105 let _W = detection.box.width;
106 let _X = detection.box._x;
107 let _Y = detection.box._y;
108 return (
109 <div key={i}>
110 <div
111 style={{
112 position: 'absolute',
113 border: 'solid',
114 borderColor: 'blue',
115 height: _H,
116 width: _W,
117 transform: `translate(${_X}px,${_Y}px)`
118 }}
119 >
120 {!!match && !!match[i] ? (
121 <p
122 style={{
123 backgroundColor: 'blue',
124 border: 'solid',
125 borderColor: 'blue',
126 width: _W,
127 marginTop: 0,
128 color: '#fff',
129 transform: `translate(-3px,${_H}px)`
130 }}
131 >
132 {match[i]._label}
133 </p>
134 ) : null}
135 </div>
136 </div>
137 );
138 });
139 }
140
141 return (
142 <div
143 className="Camera"
144 style={{
145 display: 'flex',
146 flexDirection: 'column',
147 alignItems: 'center'
148 }}
149 >
150 <p>Camera: {camera}</p>
151 <div
152 style={{
153 width: WIDTH,
154 height: HEIGHT
155 }}
156 >
157 <div style={{ position: 'relative', width: WIDTH }}>
158 {!!videoConstraints ? (
159 <div style={{ position: 'absolute' }}>
160 <Webcam
161 audio={false}
162 width={WIDTH}
163 height={HEIGHT}
164 ref={this.webcam}
165 screenshotFormat="image/jpeg"
166 videoConstraints={videoConstraints}
167 />
168 </div>
169 ) : null}
170 {!!drawBox ? drawBox : null}
171 </div>
172 </div>
173 </div>
174 );
175 }
176}
177
178export default withRouter(VideoInput);
همه مکانیزمهای تشخیص و بازشناسی جهره مانند مولفه ImageInput هستند، به جز آنکه ورودی، یک اسکرینشات ثبت شده از وبکم در هر ۱۵۰۰ میلی ثانیه یک بار است. سایز تصویر روی 420x420 پیکسل تنظیم شده است، اما میتواند تصاویر با ابعاد کوچکتر یا بزرگتر رت میز مورد بررسی قرار داد. البته، باید توجه داشت که استفاده از تصاویر بزرگتر، منجر به زمان پردازش بالا میشود. درون تابع setInputDevice، به سادگی بررسی میشود که آیا دستگاه ۱ یا ۲ دوربین (یا بیشتر) دارد. اگر تنها یک دوربین وجود داشته باشد، برنامه فرض میکند که یک کامپیوتر شخصی است، سپس، از دوربین facingMode: user ثبت میشود، اما اگر دو یا تعداد بیشتری بود، ممکن است گوشی هوشمند باشد. در این صورت، میتوان با دوربین از بکاند facingMode: { exact: ‘environment’ } دریافت کرد.
از تابع مشابهی برای ترسیم جعبه تشخیص تصویر مانند مولفه ImageInput استفاده میشود. در واقع، میتوان آن را به عنوان مولفه دیگری آماده کرد. بنابراین، نیازی به تکرار دوباره آن نیست. اکنون، برنامه کاربردی آماده است. کاربران میتوانند حالت VideoInput برنامه کاربردی را با چهره خودشان تست کنند. اما احتمالا کاربر با به عنوان unknown و یا به اشتباه، یکی از افرادی که مدل با تصاویر آن آموزش دیده است، تشخیص دهد. دلیل این امر آن است که سیستم تلاش میکند که همه تصاویر با فاصله اقلیدسی کمتر از ۰.۵ را تشخیص دهد.
استقرار پروژه در صفحه گیتهاب
در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت روش استقرار پروژه در گیتهاب مورد بررسی قرار میگیرد. این برنامه کاربردی را میتوان در هر میزبان استاتیکی مستقر کرد. اما در این بخش، روش استقرار این برنامه ریاکت در صفحات گیتهاب با استفاده از چند ترفند آموزش داده شده است.
برای انجام این مراحل، نیاز به داشتن اکانت گیتهاب است. افرادی که گیتهاب ندارند، برای انجام ادامه مراحل موجود در این بخش، یک اکانت گیتهاب بسازند. در ابتدا، باید کتابخانه gh-pages نصب شود. برای انجام این کار میتوان از قطعه کد زیر استفاده کرد.
1npm i gh-pages
سپس، نیاز به اضافه کردن { basename: process.env.PUBLIC_URL } درون createHistory() در src/App.js به صورت زیر است.
1import React, { Component } from 'react';
2import { Route, Router } from 'react-router-dom';
3import createHistory from 'history/createBrowserHistory';
4import './App.css';
5
6import Home from './views/Home';
7import ImageInput from './views/ImageInput';
8import VideoInput from './views/VideoInput';
9
10class App extends Component {
11 render() {
12 return (
13 <div className="App">
14 <Router history={createHistory({ basename: process.env.PUBLIC_URL })}>
15 <div className="route">
16 <Route exact path="/" component={Home} />
17 <Route exact path="/photo" component={ImageInput} />
18 <Route exact path="/camera" component={VideoInput} />
19 </div>
20 </Router>
21 </div>
22 );
23 }
24}
25
26export default App;
اکنون، کاربر میتواند به صفحه گیتهاب خود مراجعه کرده و یک مخزن با نام برنامه کاربردی بسازد. در اینجا، نام برنامه کاربردی react-face-recognition است.
سپس، میتوان URL گیت را کپی کرد تا بتوان آن را بعدا به پروژه اضافه کرد. سپس، باید package.json را باز کرده و homepage را با اکانت گیتهاب و نام برنامه مانند زیر، اضافه کرد:
1"homepage": "http://YOUR_GITHUB_ACCOUNT.github.io/react-face-recognition"
نباید فایل package.json را هنوز بست، زیرا نیاز به اضافه کردن predeploy و دستور deploy خط فرمان تحت scripts به صورت زیر است.
1"scripts": {
2 "start": "react-scripts start",
3 "build": "react-scripts build",
4 "test": "react-scripts test",
5 "eject": "react-scripts eject",
6 "predeploy": "npm run build",
7 "deploy": "gh-pages -d build"
8}
اکنون، میتوان فایل را ذخیره کرد و به کنسول ترمینال بازگشت و سپس، دستور گیت را برای بارگذاری کد در مخزن گیتهاب و اجرای npm run deploy، اجرا کرد.
صفحه باید با URL منتشر شود که به صورت http://YOUR_GITHUB_ACCOUNT.github.io/react-face-recognition تنظیم شده است.
1git add .
2git commit -m "make something good"
3git remote add origin https://github.com/YOUR_GITHUB_ACCOUNT/react-face-recognition.git
4git push -u origin master
5
6npm run deploy
خانم حصارکی خسته نباشید. مهدی سازگار هستم دانش آموز از بوشهر.
خیلی وقته به دنبال راه ارتباط با شما هستم ولی راه ارتباطی پیدا نکردم. مجذوب مطالب عالی و تخصص نهفته درشون هستم.
من شرایط زندگیم و شرایط سنی نمیزاره که با افراد فعال در حوزه برنامه نویسی کانکت باشم و بتونم اعتماد کنم. به همین دلیل به تنهایی بر روی
پروژه هام کار می کنم.
به شدت علاقه مندم که فردی با تخصص شما راهنمام باشه و لایق باشم از نظراتش بیشترین استفاده رو ببرم.
روزشمار منتظر پاسخ شما هستم