ما الجديد في Azure الذكاء الاصطناعي Vision

تعرف على الجديد في Azure الذكاء الاصطناعي Vision. تحقق من هذه الصفحة للبقاء على اطلاع دائم بالميزات الجديدة والتحسينات والإصلاحات وتحديثات الوثائق.

فبراير 2024

تضمينات متعددة الوسائط GA: نموذج جديد متعدد اللغات

تم تحديث واجهة برمجة تطبيقات التضمينات متعددة الوسائط وهي متاحة الآن بشكل عام. تتضمن واجهة برمجة التطبيقات الجديدة 2024-02-01 نموذجا جديدا يدعم البحث عن النص ب 102 لغة. لا يزال النموذج الأصلي باللغة الإنجليزية فقط متوفرا، ولكن لا يمكن دمجه مع النموذج الجديد في نفس فهرس البحث. إذا قمت بتصوير النصوص والصور الموجهة باستخدام النموذج باللغة الإنجليزية فقط، فإن هذه المتجهات غير متوافقة مع متجهات النص والصور متعددة اللغات.

راجع صفحة دعم اللغة للحصول على قائمة اللغات المدعومة.

يناير 2024

New Image Analysis SDK 1.0.0-beta.1 (كسر التغييرات)

تمت إعادة كتابة Image Analysis SDK في الإصدار 1.0.0-beta.1 للتوافق بشكل أفضل مع Azure SDKs الأخرى. تم تغيير جميع واجهات برمجة التطبيقات. راجع قوالب التشغيل السريع والعينات والأدلةالإرشادية المحدثة للحصول على معلومات حول كيفية استخدام SDK الجديد.

التغييرات الرئيسية:

نوفمبر 2023

تحليل الصورة 4.0 GA

واجهة برمجة تطبيقات تحليل الصورة 4.0 REST الآن في التوفر العام. اتبع التشغيل السريع Analyze Image 4.0 للبدء.

تظل الميزات الأخرى لتحليل الصور، مثل تخصيص النموذج وإزالة الخلفية والتضمينات متعددة الوسائط، في المعاينة العامة.

واجهة SDK من جانب العميل للكشف عن الحياة

يدعم Face Liveness SDK الكشف عن الحياة على الأجهزة المحمولة أو أجهزة الحافة الخاصة بالمستخدمين. وهي متوفرة في Java/Kotlin لنظام التشغيل Android وSwift/Objective-C لنظام التشغيل iOS.

تتوافق خدمة الكشف عن الحياة لدينا مع توافق iBeta من المستوى 1 و2 ISO/IEC 30107-3.

سبتمبر 2023

إهمال إصدارات واجهة برمجة تطبيقات Computer Vision القديمة

سيتم إيقاف إصدارات Computer Vision API 1.0 و2.0 و3.0 و3.1 في 13 سبتمبر 2026. لن يتمكن المطورون من إجراء استدعاءات API لواجهات برمجة التطبيقات هذه بعد ذلك التاريخ. نوصي بأن يقوم جميع العملاء المتأثرين بترحيل أحمال العمل الخاصة بهم إلى واجهة برمجة تطبيقات Computer Vision 3.2 المتوفرة بشكل عام باتباع QuickStart في أقرب وقت ممكن. يجب على العملاء أيضا التفكير في الترحيل إلى واجهة برمجة تطبيقات تحليل الصور 4.0 (معاينة)، والتي تحتوي على أحدث إمكانات تحليل الصور وأعظمها.

تفضل بزيارة Q&A لأي أسئلة.

مايو 2023

Image Analysis 4.0 Product Recognition (معاينة عامة)

تتيح لك واجهات برمجة التطبيقات التعرف على المنتجات تحليل صور الرفوف في متجر بيع بالتجزئة. يمكنك الكشف عن وجود المنتجات وغيابها والحصول على إحداثيات المربع المحيط بها. استخدمه بالاشتراك مع تخصيص النموذج لتدريب نموذج لتحديد منتجاتك المحددة. يمكنك أيضا مقارنة نتائج التعرف على المنتجات بمستند مخطط مخطط متجرك. التعرف على المنتج.

أبريل 2023

مواجهة الرموز المميزة للوصول المحدود

يمكن لموردي البرامج المستقلين (ISVs) إدارة استخدام Face API لعملائهم عن طريق إصدار رموز الوصول المميزة التي تمنح الوصول إلى ميزات Face التي عادة ما تكون مسورة. يسمح هذا للشركات العميلة باستخدام واجهة برمجة تطبيقات Face دون الحاجة إلى المرور بعملية الموافقة الرسمية. استخدم رموز الوصول المميزة المحدودة.

مارس 2023

معاينة عامة ل Azure الذكاء الاصطناعي Vision Image Analysis 4.0 SDK

تم دمج نموذج مؤسسة فلورنسا الآن في Azure الذكاء الاصطناعي Vision. تمكن خدمات الرؤية المحسنة المطورين من إنشاء تطبيقات Azure الذكاء الاصطناعي Vision جاهزة للسوق ومسؤولة عبر مختلف الصناعات. يمكن للعملاء الآن رقمنة بياناتهم وتحليلها وتوصيلها بسلاسة بتفاعلات اللغة الطبيعية، وفتح رؤى قوية من محتوى الصور والفيديو لدعم إمكانية الوصول، ودفع الاستحواذ من خلال SEO، وحماية المستخدمين من المحتوى الضار، وتعزيز الأمان، وتحسين أوقات الاستجابة للحوادث. لمزيد من المعلومات، راجع الإعلان عن نموذج الأساس فلورنسا من Microsoft.

Image Analysis 4.0 SDK (معاينة عامة)

يتوفر تحليل الصور 4.0 الآن من خلال حزم SDK لمكتبة العميل في C#، وC++، وPython. يتضمن هذا التحديث أيضا التسمية التوضيحية للصور التي تعمل بفلورنسا والتسمية التوضيحية الكثيفة في أداء التماثل البشري.

التسمية التوضيحية V4.0 لتحليل الصور والتسمية التوضيحية الكثيفة (معاينة عامة):

يستبدل "التسمية التوضيحية" "وصف" في الإصدار 4.0 كميزة محسنة للتسمية التوضيحية للصور غنية بالتفاصيل والفهم الدلالي. توفر التسميات التوضيحية الكثيفة المزيد من التفاصيل من خلال إنشاء أوصاف من جملة واحدة تصل إلى 10 مناطق من الصورة بالإضافة إلى وصف الصورة بأكملها. تقوم التسميات التوضيحية الكثيفة أيضا بإرجاع إحداثيات مربع الإحاطة لمناطق الصور الموضحة. هناك أيضا معلمة جديدة محايدة جنسانيا للسماح للعملاء باختيار ما إذا كان سيتم تمكين الاستدلال الجنساني الاحتمالي للنص البديل ورؤية تطبيقات الذكاء الاصطناعي. تقديم تسميات توضيحية غنية تلقائيا، والنص البديل الذي يمكن الوصول إليه، وتحسين SEO، وتكوين الصور الذكي لدعم المحتوى الرقمي. تسميات توضيحية للصور.

ملخص الفيديو ومحدد موقع الإطار (معاينة عامة):

ابحث عن محتوى الفيديو وتفاعل معه بنفس الطريقة البديهية التي تفكر بها وتكتبها. حدد موقع المحتوى ذي الصلة دون الحاجة إلى بيانات تعريف إضافية. متوفر فقط في Vision Studio.

تخصيص نموذج تحليل الصور 4.0 (معاينة عامة)

يمكنك الآن إنشاء وتدريب تصنيف الصور المخصصة الخاصة بك ونماذج الكشف عن الكائنات، باستخدام Vision Studio أو واجهات برمجة تطبيقات REST v4.0.

واجهات برمجة تطبيقات التضمينات متعددة الوسائط (معاينة عامة)

تمكن واجهات برمجة تطبيقات التضمينات متعددة الوسائط، وهي جزء من واجهة برمجة تطبيقات تحليل الصور 4.0، من توجيه الصور واستعلامات النص. تتيح لك تحويل الصور والنص إلى إحداثيات في مساحة متجه متعددة الأبعاد. يمكنك الآن البحث باللغة الطبيعية والعثور على الصور ذات الصلة باستخدام البحث عن تشابه المتجهات.

واجهات برمجة التطبيقات لإزالة الخلفية (معاينة عامة)

كجزء من واجهة برمجة تطبيقات تحليل الصور 4.0، تتيح لك واجهة برمجة تطبيقات إزالة الخلفية إزالة خلفية صورة. يمكن لهذه العملية إما إخراج صورة للكائن الأمامي المكتشف بخلفية شفافة، أو صورة غير لامعة لألفا رمادية تظهر شفافية الكائن الأمامي المكتشف.

إهمال معاينات Azure الذكاء الاصطناعي Vision 3.0 و3.1

من المقرر إيقاف إصدارات المعاينة من واجهات برمجة التطبيقات Azure الذكاء الاصطناعي Vision 3.0 و3.1 في 30 سبتمبر 2023. لن يتمكن العملاء من إجراء أي مكالمات إلى واجهات برمجة التطبيقات هذه بعد هذا التاريخ. يتم تشجيع العملاء على ترحيل أحمال العمل الخاصة بهم إلى واجهة برمجة تطبيقات (GA) 3.2 المتوفرة بشكل عام بدلا من ذلك. ضع في اعتبارك التغييرات التالية عند الترحيل من إصدارات المعاينة إلى واجهة برمجة التطبيقات 3.2:

  • تأخذ استدعاءات Analyze Image and Read API معلمة اختيارية لإصدار النموذج يمكنك استخدامها لتحديد أي نموذج الذكاء الاصطناعي لاستخدامه. بشكل افتراضي، يستخدمون أحدث نموذج.
  • كما أن استدعاءات تحليل الصورة وقراءة واجهة برمجة التطبيقات ترجع أيضاً حقل model-version في استجابات واجهة برمجة التطبيقات الناجحة. يُبلغ هذا الحقل عن النموذج الذي تم استخدامه.
  • تستخدم واجهة برمجة تطبيقات Azure الذكاء الاصطناعي Vision 3.2 تنسيقا مختلفا للإبلاغ عن الأخطاء. راجع الوثائق المرجعية لواجهة برمجة التطبيقات للتعرف على كيفية ضبط أي تعليمة برمجية لمعالجة الأخطاء.

أكتوبر 2022

Azure الذكاء الاصطناعي Vision Image Analysis 4.0 (معاينة عامة)

تم إصدار Image Analysis 4.0 في المعاينة العامة. تتضمن واجهة برمجة التطبيقات الجديدة تسمية توضيحية للصور، ووضع علامات على الصور، واكتشاف الكائنات، والمحاصيل الذكية، واكتشاف الأشخاص، وقراءة وظائف التعرف البصري على الحروف، وكلها متوفرة من خلال عملية تحليل صورة واحدة. تم تحسين التعرف البصري على الحروف للصور العامة غير المستندة في واجهة برمجة تطبيقات متزامنة محسنة الأداء تسهل تضمين التجارب التي تعمل ب OCR في مهام سير العمل.

2022 سبتمبر

إيقاف معاينات القراءة في Azure الذكاء الاصطناعي Vision 3.0/3.1

من المقرر إيقاف إصدارات المعاينة من Azure الذكاء الاصطناعي Vision 3.0 و3.1 Read API في 31 يناير 2023. يتم تشجيع العملاء على الرجوع إلى How-To و QuickStarts لبدء استخدام إصدار (GA) المتاح بشكل عام من واجهة برمجة تطبيقات القراءة بدلا من ذلك. توفر أحدث إصدارات GA المزايا التالية:

  • أحدث نموذج OCR متوفر بشكل عام لعام 2022
  • توسع كبير في تغطية لغة التعرف البصري على الحروف (OCR) بما في ذلك دعم النص المكتوب بخط اليد
  • تحسين جودة التعرف البصري على الحروف (OCR)

يونيو 2022

إطلاق تشغيل Vision Studio

إن Vision Studio هي أداة واجهة المستخدم التي تتيح لك استكشاف الميزات من Azure الذكاء الاصطناعي Vision وبناها ودمجها في تطبيقاتك.

يوفر لك Vision Studio نظامًا أساسيًا لتجربة العديد من ميزات الخدمة، ومعرفة ما يعودون به بطريقة مرئية. باستخدام Studio، يمكنك البدء دون الحاجة إلى كتابة التعليمة البرمجية، ثم استخدام مكتبات العميل المتاحة وواجهات برمجة تطبيقات REST في تطبيقك.

الذكاء الاصطناعي المسؤول للوجه

ملاحظة شفافية الوجه

  • توفر مذكرة الشفافية إرشادات لمساعدة عملائنا على تحسين دقة أنظمتهم وإنصافها من خلال دمج مراجعة بشرية ذات مغزى للكشف عن حالات سوء التحديد أو حالات الفشل الأخرى وحلها، وتوفير الدعم للأشخاص الذين يعتقدون أن نتائجهم غير صحيحة، وتحديد ومعالجة التقلبات في الدقة بسبب الاختلافات في الظروف التشغيلية.

سحب السمات الحساسة

  • لقد قمنا بإيقاف قدرات تحليل الوجه التي تهدف إلى استنتاج الحالات العاطفية وسمات الهوية، مثل الجنس والعمر والابتسامة وشعر الوجه والشعر والماكياج.
  • ستظل قدرات الكشف عن الوجه (بما في ذلك الكشف عن التمويه والتعرض والنظارات ورؤوس الرأس والمعالم والضوضاء والانسداد ومربع إحاطة الوجه) متاحة بشكل عام ولا تتطلب تطبيقا.

حزمة Fairlearn ولوحة معلومات الإنصاف من Microsoft

نهج الوصول المحدود

  • كجزء من محاذاة Face مع معيار الذكاء الاصطناعي المسؤول المحدث، تم تنفيذ نهج وصول محدود جديد لواجهة برمجة تطبيقات Face وAzure الذكاء الاصطناعي Vision. لدى العملاء الحاليين سنة واحدة للتقدم والحصول على الموافقة لاستمرار الوصول إلى خدمات التعرف على الوجه بناءً على حالات الاستخدام المقدمة لهم. راجع تفاصيل حول الوصول المحدود للوجه هنا وAzure الذكاء الاصطناعي Vision هنا.

إهمال Azure الذكاء الاصطناعي Vision 3.2-preview

تمت جدولة إصدارات معاينة واجهة برمجة التطبيقات 3.2 للتوقف في ديسمبر 2022. يتم تشجيع العملاء على استخدام الإصدار المتاح بشكل عام (GA) من API بدلاً من ذلك. ضع في اعتبارك التغييرات التالية من إصدارات المعاينة 3.2:

  1. تأخذ مكالمات تحليل الصورة وقراءة واجهة برمجة التطبيقات الآن معلمة اختيارية لإصدار النموذج يمكنك استخدامها لتحديد نموذج AI الذي تريد استخدامه. بشكل افتراضي، يستخدمون أحدث نموذج.
  2. كما أن استدعاءات تحليل الصورة وقراءة واجهة برمجة التطبيقات ترجع أيضاً حقل model-version في استجابات واجهة برمجة التطبيقات الناجحة. يُبلغ هذا الحقل عن النموذج الذي تم استخدامه.
  3. تستخدم واجهات برمجة التطبيقات لتحليل الصور الآن تنسيقاً مختلفاً للإبلاغ عن الخطأ. راجع الوثائق المرجعية لواجهة برمجة التطبيقات للتعرف على كيفية ضبط أي تعليمة برمجية لمعالجة الأخطاء.

مايو 2022

نموذج API OCR (قراءة) متاح بشكل عام (GA)

يتوفر الآن أحدث نموذج لواجهة برمجة تطبيقات التعرف البصري على الحروف (قراءة) في Azure الذكاء الاصطناعي Vision مع 164 لغة مدعومة كخدمة وحاوية سحابية.

  • يتوسع دعم التعرف الضوئي على الحروف للنص المطبوع إلى 164 لغة بما في ذلك الروسية والعربية والهندية ولغات أخرى باستخدام النصوص السيريلية والعربية والديفاناغارية.
  • يمتد دعم التعرف الضوئي على الحروف للنص المكتوب بخط اليد إلى 9 لغات باللغات الإنجليزية والصينية المبسطة والفرنسية والألمانية والإيطالية واليابانية والكورية والبرتغالية والإسبانية.
  • دعم محسّن للأحرف الفردية والتواريخ المكتوبة بخط اليد والمبالغ والأسماء والكيانات الأخرى الشائعة في الإيصالات والفواتير.
  • معالجة محسنة لوثائق PDF الرقمية.
  • زاد حد حجم ملف الإدخال من 10x إلى 500 ميغابايت.
  • تحسينات في الأداء ووقت الاستجابة.
  • متاح كخدمة سحابية وحاوية Docker.

راجع دليل كيفية التعرف الضوئي على الحروف للتعرف على كيفية استخدام نموذج GA.

2022 فبراير

يدعم OCR (قراءة) API Public Preview 164 لغة

توسع واجهة برمجة تطبيقات التعرف البصري على الحروف (قراءة) في Azure الذكاء الاصطناعي Vision اللغات المدعومة إلى 164 مع أحدث معاينة لها:

  • يتوسع دعم OCR للطباعة النصية إلى 42 لغة جديدة بما في ذلك العربية والهندية ولغات أخرى باستخدام البرامج النصية العربية وDevanagari.
  • يمتد دعم التعرف الضوئي على الحروف للنص المكتوب بخط اليد إلى اليابانية والكورية بالإضافة إلى الإنجليزية والصينية المبسطة والفرنسية والألمانية والإيطالية والبرتغالية والإسبانية.
  • تحسينات بما في ذلك دعم أفضل لاستخراج التواريخ المكتوبة بخط اليد والمبالغ والأسماء والمربعات ذات الأحرف الفردية.
  • الأداء العام وتحسينات جودة الذكاء الاصطناعي

راجع دليل كيفية التعرف الضوئي على الحروف OCR لمعرفة كيفية استخدام ميزات المعاينة الجديدة.

سمة الجودة الجديدة في Detection_01 Detection_03

  • لمساعدة منشئي النظام وعملائهم على التقاط صور عالية الجودة، وهي ضرورية لمخرجات عالية الجودة من Face API، نقدم سمة جودة جديدة QualityForRecognition للمساعدة في تحديد ما إذا كانت الصورة ذات جودة كافية لمحاولة التعرف على الوجه. القيمة هي تصنيف غير رسمي من منخفضة أو متوسطة أو عالية. السمة الجديدة متاحة فقط عند استخدام أي مجموعات من نماذج الكشف detection_01 أو detection_03ونماذج التعرف recognition_03 أو recognition_04. يوصى فقط بالصور "عالية الجودة" لتسجيل الأشخاص والجودة أعلى من "المتوسط" يوصى بها لسيناريوهات التعريف. لمعرفة المزيد حول سمة الجودة الجديدة، انظر اكتشاف الوجه والسمات وانظر كيفية استخدامها مع QuickStart .

سبتمبر 2021

OCR (قراءة) واجهة برمجة التطبيقات المعاينة العامة يدعم 122 لغة

توسع واجهة برمجة تطبيقات التعرف البصري على الحروف (قراءة) في Azure الذكاء الاصطناعي Vision اللغات المدعومة إلى 122 مع أحدث معاينة لها:

  • دعم OCR لنص الطباعة في 49 لغة جديدة بما في ذلك الروسية، البلغارية، واللغات السيريالية الأخرى والمزيد من اللغات اللاتينية.
  • دعم OCR للنص المكتوب بخط اليد في 6 لغات جديدة تشمل الإنجليزية والصينية المبسطة والفرنسية والألمانية والإيطالية والبرتغالية والإسبانية.
  • تحسينات لمعالجة PDFs الرقمية ونص المنطقة المقروءة آليًّا (MRZ) في وثائق الهوية.
  • الأداء العام وتحسينات جودة الذكاء الاصطناعي

راجع دليل كيفية التعرف الضوئي على الحروف OCR لمعرفة كيفية استخدام ميزات المعاينة الجديدة.

أغسطس 2021

توسيع لغة وضع العلامات على الصور

يدعم أحدث إصدار (v3.2) من Image tagger الآن العلامات في 50 لغة. راجع صفحة دعم اللغة لمزيد من المعلومات.

يوليو 2021

تحسينات جديدة في HeadPose والمعالم Detection_03

  • تم تحديث نموذج Detection_03 لدعم معالم الوجه.
  • تعد ميزة المعالم في Detection_03 أكثر دقة، خاصة في معالم مقلة العين، والتي تعتبر حاسمة لتتبع النظرات.

2021 مايو

تحديث حاوية التحليل المكاني

تم إصدار إصدار جديد من حاوية التحليل المكاني مع مجموعة ميزات جديدة. تتيح لك حاوية Docker هذه تحليل الفيديو المتدفق في الوقت الحقيقي لفهم العلاقات المكانية بين الأشخاص وحركتهم من خلال البيئات المادية.

  • يمكن الآن تكوين عمليات التحليل المكاني للكشف عن الاتجاه الذي يواجهه الشخص.

    • يمكن تمكين مصنف الاتجاه لعمليات personcrossingline و personcrossingpolygon عن طريق تكوين المعلمة enable_orientation . يتم تعيينها في الوضع الافتراضي على إيقاف.
  • تقدم عمليات التحليل المكاني الآن أيضا تكوينا للكشف عن سرعة الشخص أثناء المشي/التشغيل

    • يمكن الكشف عن السرعة لعمليات personcrossingline و personcrossingpolygon عن طريق تشغيل enable_speed المصنف، الذي يكون متوقفا عن التشغيل بشكل افتراضي. وينعكس الإخراج في speedavgSpeedالمخرجات و وminSpeed.

2021 أبريل

Azure الذكاء الاصطناعي Vision v3.2 GA

يتوفر الآن الإصدار 3.2 من Azure الذكاء الاصطناعي Vision API بشكل عام مع التحديثات التالية:

هيكل بيانات PersonDirectory (إصدار أولي)

  • من أجل تنفيذ عمليات التعرف على الوجه مثل تحديد الهوية والعثور على ما يشابهه، يحتاج عملاء Face API لإنشاء قائمة متنوعة من كائنات الشخص. PersonDirectory الجديد هو بنية بيانات تحتوي على معرفات فريدة وسلاسل أسماء اختيارية وسلاسل بيانات تعريف مستخدم اختيارية لكل هويةشخص تمت إضافتها إلى الدليل. حاليًا، توفر واجهة برمجة التطبيقات Face بنية LargePersonGroup التي لديها وظائف مماثلة ولكن تقتصر على 1 مليون هوية. يمكن لبنية PersonDirectory توسيع نطاق ما يصل إلى 75 مليون هوية.
  • هناك فرق رئيس آخر بين PersonDirectory وهياكل البيانات السابقة هو أنك لن تحتاج بعد الآن إلى إجراء أي استدعاءات تدريب بعد إضافة وجوه إلى كائن شخص —تحدث عملية التحديث تلقائيًا. لمزيد من التفاصيل، راجع استخدام بنية PersonDirectory.

مارس 2021

تحديث المعاينة العامة ل Azure الذكاء الاصطناعي Vision 3.2

تم تحديث المعاينة العامة لواجهة برمجة تطبيقات Azure الذكاء الاصطناعي Vision v3.2. يحتوي إصدار المعاينة على جميع ميزات Azure الذكاء الاصطناعي Vision جنبا إلى جنب مع واجهات برمجة التطبيقات للقراءة والتحليل المحدثة.

2021 فبراير

المعاينة العامة لإصدار 3.2 لواجهة برمجة تطبيقات القراءة Read مع التعرف الضوئي على الحروف تدعم 73 لغة

تتضمن معاينة Azure الذكاء الاصطناعي Vision Read API v3.2 العامة، المتوفرة كخدمة سحابية وحاوية Docker، هذه التحديثات:

  • OCR ل 73 لغة بما في ذلك اللغات الصينية المبسطة والتقليدية واليابانية والكورية واللاتينية.
  • ترتيب القراءة الطبيعي لإخراج سطر النص (اللغات اللاتينية فقط)
  • تصنيف نمط الكتابة اليدوية لخطوط النص مع درجة الثقة (اللغات اللاتينية فقط).
  • استخراج النص فقط من الصفحات المحددة لمستند متعدد الصفحات.
  • متاح باعتباره حاوية خالية للتوزيع في أماكن العمل.

راجع دليل كيفية قراءة واجهة برمجة التطبيقات لمعرفة المزيد.

نموذج جديد للكشف عن Face API

  • نموذج Detection 03 الجديد هو نموذج الكشف الأكثر دقة المتاح حالياً. إذا كنت عميلاً جديداً، فنوصي باستخدام هذا النموذج. يحسن Detection 03 كل من الاستدعاء والدقة على الوجوه الأصغر الموجودة داخل الصور (64x64 بكسل). وتشمل التحسينات الأخرى انخفاضا إجماليا في الإيجابيات الزائفة وتحسين الكشف عن اتجاهات الوجه المتناوبة. يوفر الجمع بين Detection 03 ونموذج Recognition 04 الجديد دقة التعرف المحسنة أيضا. راجع تحديد نموذج كشف الوجه لمزيد من التفاصيل.

سمات الوجه الجديدة القابلة للكشف

  • faceMask السمة متاحة مع أحدث نموذج الكشف 03، جنبا إلى جنب مع السمة "noseAndMouthCovered"المضافة ، والتي تكتشف ما إذا كان قناع الوجه يرتديها على النحو المنشود، وتغطي كل من الأنف والفم. لاستخدام أحدث إمكانية للكشف عن القناع، يحتاج المستخدمون إلى تحديد نموذج الكشف في طلب API: تعيين إصدار النموذج مع المعلمة detectionModel إلى detection_03. راجع تحديد نموذج كشف الوجه لمزيد من التفاصيل.

نموذج Face API Recognition الجديد

  • نموذج Recognition 04 الجديد هو نموذج التعرف الأكثر دقة المتوفر حالياً. إذا كنت عميلاً جديداً، نوصي باستخدام هذا النموذج للتحقق وتحديد الهوية. إنه يحسن دقة التعرف 03، بما في ذلك التعرف المحسن على المستخدمين الذين يرتدون أغطية الوجه (الأقنعة الجراحية، أقنعة N95، أقنعة القماش). نوصي بعدم تسجيل صور المستخدمين الذين يرتدون أغطية الوجه لأن هذا سيؤدي إلى خفض جودة التعرف. الآن يمكن للعملاء بناء تجارب مستخدم آمنة وسلسة تكتشف ما إذا كان المستخدم يرتدي غطاء وجه بأحدث نموذج Detection 03، والتعرف عليها باستخدام أحدث نموذج Recognition 04. راجع تحديد نموذج التعرف على الوجه للحصول على مزيد من التفاصيل.

يناير 2021

تحديث حاوية التحليل المكاني

تم إصدار إصدار جديد من حاوية التحليل المكاني مع مجموعة ميزات جديدة. تتيح لك حاوية Docker هذه تحليل الفيديو المتدفق في الوقت الحقيقي لفهم العلاقات المكانية بين الأشخاص وحركتهم من خلال البيئات المادية.

  • يمكن الآن تكوين عمليات التحليل المكاني للكشف عن ما إذا كان الشخص يرتدي غطاء واقيا للوجه مثل قناع.
    • يمكن تمكين مصنف قناع للعمليات personcountو personcrossinglinepersoncrossingpolygon عن طريق تكوين المعلمة ENABLE_FACE_MASK_CLASSIFIER .
    • سيتم إرجاع السمات و face_noMask كبيانات face_mask تعريف مع درجة ثقة لكل شخص تم اكتشافه في دفق الفيديو
  • تم توسيع عملية personcrossingpolygon للسماح بحساب وقت السكن الذي يقضيه الشخص في منطقة ما. يمكنك تعيين المعلمة type في تكوين المنطقة للعملية إلى zonedwelltime وسيتضمن durationMs حدث جديد من النوع personZoneDwellTimeEvent الحقل المملوء بعدد المللي ثانية التي قضاها الشخص في المنطقة.
  • تغيير كسر: تمت إعادة تسمية حدث personZoneEvent إلى personZoneEnterExitEvent. يتم رفع هذا الحدث بواسطة عملية personcrossingpolygon عندما يدخل شخص المنطقة أو يخرج منها ويوفر معلومات اتجاهية مع الجانب مرقم من المنطقة التي تم عبورها.
  • يمكن توفير عنوان URL للفيديو على أنه "معلمة خاصة/محجوب" في جميع العمليات. التعتيم اختياري الآن ولن يعمل إلا إذا KEY تم توفيره IV كمتغيرات بيئة.
  • يتم تمكين المعايرة بشكل افتراضي لكافة العمليات. do_calibration: false قم بتعيين لتعطيلها.
  • إضافة دعم لإعادة المعايرة التلقائية (معطل افتراضيا) عبر المعلمة enable_recalibration ، يرجى الرجوع إلى عمليات التحليل المكاني للحصول على التفاصيل
  • الكاميرا معلمات المعايرة إلى DETECTOR_NODE_CONFIG. راجع عمليات التحليل المكاني للحصول على التفاصيل.

تخفيف زمن الانتقال

ديسمبر 2020

تكوين العميل لتخزين Face ID

  • في حين أن خدمة الوجه لا تخزن صور العملاء، سيتم تخزين ميزة الوجه المستخرجة على الخادم. معرف الوجه هو معرف لميزة الوجه وسيتم استخدامه في Face - Identifyو Face - Verifyو Face - Find Similar. ستنتهي صلاحية ميزات الوجه المخزنة وسيتم حذفها بعد 24 ساعة من مكالمة الكشف الأصلية. يمكن للعملاء الآن تحديد طول الوقت الذي يتم فيه تخزين معرفات Face هذه مؤقتاً. لا يزال الحد الأقصى للقيمة يصل إلى 24 ساعة، ولكن يمكن الآن تعيين قيمة الحد الأدنى من 60 ثانية. النطاقات الزمنية الجديدة لـ Face IDs التي يتم تخزينها مؤقتاً هي أي قيمة بين 60 ثانية و24 ساعة. يمكن العثور على مزيد من التفاصيل في Face - Detectمرجع API (معلمة faceIdTimeToLive).

نوفمبر 2020

نموذج تطبيق Face enrollment

  • نشر الفريق تطبيق Face enrollment نموذجياً لإظهار أفضل الممارسات لإنشاء موافقة ذات مغزى وإنشاء أنظمة التعرف على الوجه عالية الدقة من خلال التسجيل عالي الجودة. يمكن العثور على نموذج المصدر المفتوح في دليل Build an enrollment app وعلى GitHub، وهو جاهز للمطورين للنشر أو التخصيص.

2020 أكتوبر

Azure الذكاء الاصطناعي Vision API v3.1 GA

تمت ترقية Azure الذكاء الاصطناعي Vision API في التوفر العام إلى الإصدار 3.1.

سبتمبر 2020

معاينة حاوية التحليل المكاني

حاوية التحليل المكاني قيد المعاينة الآن. تتيح لك ميزة التحليل المكاني في Azure الذكاء الاصطناعي Vision تحليل الفيديو المتدفق في الوقت الحقيقي لفهم العلاقات المكانية بين الأشخاص وحركتهم من خلال البيئات المادية. التحليل المكاني هو حاوية Docker يمكنك استخدامها محليًا.

المعاينة العامة لإصدار 3.1 لواجهة برمجة تطبيقات القراءة Read يضيف التعرف الضوئي على الحروف OCR للغة اليابانية

تضيف المعاينة العامة لواجهة برمجة تطبيقات القراءة في Azure الذكاء الاصطناعي Vision الإصدار 3.1 هذه الإمكانات:

  • التعرف الضوئي على الحروف OCR للغة اليابانية

  • لكل سطر نص، يحدد ما إذا كان النص مكتوبًا بخط اليد أم مطبوعًا، إلى جانب درجة الثقة (اللغات اللاتينية فقط).

  • بالنسبة إلى المستند متعدد الصفحات يمكن استخراج النص فقط للصفحات المحددة أو نطاق الصفحة.

  • يدعم إصدار المعاينة هذا لواجهة برمجة التطبيقات Read اللغات الإنجليزية والهولندية والفرنسية والألمانية والإيطالية واليابانية والبرتغالية والصينية المبسطة والإسبانية.

راجع دليل كيفية قراءة واجهة برمجة التطبيقات لمعرفة المزيد.

أغسطس 2020

التشفير المدار من قبل العميل للبيانات الثابتة

  • تقوم خدمة Face تلقائياً بتشفير بياناتك عند استمرارها في السحابة. يحمي تشفير خدمة Face بياناتك لمساعدتك على الوفاء بالتزامات الأمان والامتثال الخاصة بك في المؤسسة. افتراضياً، يستخدم اشتراكك مفاتيح التشفير التي تديرها Microsoft. هناك أيضاً خيار جديد لإدارة اشتراكك باستخدام مفاتيحك الخاصة التي تسمى المفاتيح المدارة من قبل العميل (CMK). يمكن العثور على مزيد من التفاصيل على مفاتيح مدارة من قبل العميل.

2020 يوليو

المعاينة العامة لإصدار 3.1 لواجهة برمجة تطبيقات القراءة Read مع التعرف الضوئي على الحروف OCR للصينية المبسطة

تضيف المعاينة العامة ل Azure الذكاء الاصطناعي Vision Read API v3.1 دعما للغة الصينية المبسطة.

  • يدعم إصدار المعاينة هذا لواجهة برمجة التطبيقات Read اللغات الإنجليزية والهولندية والفرنسية والألمانية والإيطالية والبرتغالية والصينية المبسطة والإسبانية.

راجع دليل كيفية قراءة واجهة برمجة التطبيقات لمعرفة المزيد.

2020 مايو

أدخل Azure الذكاء الاصطناعي Vision API v3.0 التوفر العام، مع تحديثات لواجهة برمجة تطبيقات القراءة:

  • يدعم اللغة الإنجليزية والهولندية والفرنسية والألمانية والإيطالية والبرتغالية والإسبانية
  • دقة محسنة
  • درجة الثقة لكل كلمة مستخرجة
  • تنسيق الإخراج الجديد

راجع نظرة عامة على التعرف البصري على الحروف لمعرفة المزيد.

2020 أبريل

نموذج Face API Recognition الجديد

  • نموذج recognition 03 الجديد هو النموذج الأكثر دقة المتاح حالياً. إذا كنت عميلاً جديداً، فنوصي باستخدام هذا النموذج. يوفر Recognition 03 دقة محسنة لكل من مقارنات التشابه ومقارنات مطابقة الشخص. يمكن العثور على مزيد من التفاصيل في تحديد نموذج التعرف على الوجه.

مارس 2020

  • يتم الآن فرض TLS 1.2 لجميع طلبات HTTP لهذه الخدمة. لمزيد من المعلومات، راجع أمان خدمات Azure الذكاء الاصطناعي.

2020 يناير

المعاينة العامة لإصدار 3.0 من واجهة برمجة تطبيقات القراءة Read

يمكنك الآن استخدام الإصدار 3.0 من واجهة برمجة التطبيقات Read لاستخراج نص مطبوع أو مكتوب بخط اليد من الصور. مقارنة بالإصدارات السابقة، يوفر الإصدار 3.0:

  • دقة محسنة
  • تنسيق الإخراج الجديد
  • درجة الثقة لكل كلمة مستخرجة
  • دعم لكل من اللغتين الإسبانية والإنجليزية مع معلمة اللغة

اتبع التشغيل السريع لاستخراج النص للبدء في استخدام واجهة برمجة التطبيقات 3.0.

2019 يونيو

نموذج جديد للكشف عن Face API

2019 أبريل

تحسين دقة السمة

  • تحسين الدقة الكلية لسماتage وheadPose. يتم تحديث السمة headPose أيضاً مع تمكين القيمة pitch الآن. استخدم هذه السمات من خلال تحديدها في معلمة returnFaceAttributes من معلمة الوجه - اكتشف returnFaceAttributes.

تحسين سرعات المعالجة

مارس 2019

نموذج Face API Recognition الجديد

يناير 2019

ميزة لقطة الوجه

  • تسمح هذه الميزة للخدمة بدعم ترحيل البيانات عبر الاشتراكات: لقطة.

هام

اعتبارا من 30 يونيو 2023، تم إيقاف واجهة برمجة تطبيقات Face Snapshot.

2018 أكتوبر

رسائل API

مايو 2018

تحسين دقة السمة

  • تحسين سمة gender بشكل ملحوظ وتحسين سمات age، glasses، facialHair، hair،makeup أيضاً. استعملها من خلال معلمة الوجه - اكتشف returnFaceAttributes.

زيادة حد حجم الملف

مارس 2018

بنية بيانات جديدة

مايو 2017

سمات الوجه الجديدة القابلة للكشف

  • تمت إضافة hair،makeup،accessory،occlusion،blur،exposure و noise سمات في معلمة الوجه - اكتشف returnFaceAttributes.
  • دعم عشرة آلاف شخص في PersonGroup Face - Identify.
  • دعم الحدود الفاصلة للصفحات في PersonGroup Person - List باستخدام معلمات اختيارية: start وtop.
  • دعم التزامن في إضافة/حذف الوجوه مقابل FaceLists مختلفة وأشخاص مختلفين في PersonGroup.

مارس 2017

سمة الوجه الجديدة القابلة للكشف

  • تمت إضافة سمة emotion في معلمة Face - DetectreturnFaceAttributes.

المشكلات التي جرى إصلاحها

  • تعذر إعادة اكتشاف الوجه مع المستطيل الذي تم إرجاعه من Face - Detect مثل targetFace في FaceList - Add Face وPersonGroup Person - Add Face.
  • يتم تعيين حجم الوجه القابل للكشف للتأكد من أنه بين 36x36 إلى 4096x4096 بكسل.

نوفمبر 2016

مستوى اشتراك جديد

  • إضافة اشتراك Face Storage Standard لتخزين وجوه إضافية استمرت عند استخدام PersonGroup Person - Add Face or FaceList - Add Face لتحديد الهوية أو التشابه مطابقة. يتم فرض رسوم على الصور المخزنة بمبلغ 0.5 دولار لكل 1000 وجه ويتم تصنيف هذا المعدل بشكل يومي. ولا تزال الاشتراكات المجانية تقتصر على 1000 شخص.

أكتوبر 2016

رسائل API

  • تغيير رسالة الخطأ لأكثر من وجه واحد في targetFace من 'هناك أكثر من وجه واحد في الصورة' إلى 'يوجد أكثر من وجه واحد في الصورة' في FaceList - Add Face وPersonGroup Person - Add Face.

يوليو 2016

الميزات الجديدة

  • دعم مصادقة كائن الوجه إلى الشخص في Face - Verify.
  • إضافة معلمة modeاختيارية تمكن اختيار وضعين للعمل: matchPerson وmatchFace فيFace - Find Similar والافتراضي هو matchPerson.
  • إضافة confidenceThreshold معلمة اختيارية للمستخدم لتعيين عتبة بشأن ما إذا كان وجه واحد ينتمي إلى كائن شخص في Face - Identify.
  • إضافة start اختيارية top ومعلمات في PersonGroup - List لتمكين المستخدم من تحديد نقطة البداية وعدد PersonGroups الإجمالي إلى القائمة.

تغير V1.0 عن V0

  • تم تحديث نقطة نهاية جذر الخدمة من https://westus.api.cognitive.microsoft.com/face/v0/ إلى https://westus.api.cognitive.microsoft.com/face/v1.0/. التغييرات المطبقة على: Face - Detectو Face - Identifyو Face - Find Similar وFace - Group.
  • تحديث الحد الأدنى لحجم الوجه القابل للكشف إلى 36x36 بكسل. لن يتم الكشف عن الوجوه التي تقل عن 36 × 36 بكسل.
  • إهمال بيانات PersonGroup والشخص في Face V0. لا يمكن الوصول إلى هذه البيانات باستخدام خدمة Face V1.0.
  • تم إهمال نقطة نهاية V0 لـ Face API في 30 يونيو 2016.

تحديثات خدمات Azure الذكاء الاصطناعي

إعلانات تحديث Azure لخدمات Azure الذكاء الاصطناعي