https://delusionalrevolt.com/vqmr762sfx?key=c3668b2a6465dafa71bad2322044750a
تكنولوجيا

يطلق علماء معهد ماساتشوستس للتكنولوجيا محاكيًا واقعيًا مفتوح المصدر للقيادة الذاتية

مفهوم القيادة الذاتية

VISTA 2.0 Open-Source Simulation Engine

VISTA 2.0 is an open-source simulation engine that can make realistic environments for training and testing self-driving cars. Credit: Image courtesy of MIT CSAIL

With this in mind, scientists from MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL) created “VISTA 2.0,” a data-driven simulation engine where vehicles can learn to drive in the real world and recover from near-crash scenarios. What’s more, all of the code is being released open-source to the public.

“Today, only companies have software like the type of simulation environments and capabilities of VISTA 2.0, and this software is proprietary. With this release, the research community will have access to a powerful new tool for accelerating the research and development of adaptive robust control for autonomous driving,” says the senior author of a paper about the research, MIT Professor and CSAIL Director Daniela Rus.

https://www.youtube.com/watch؟v=z0UHdAI3sXI
VISTA هي لعبة محاكاة واقعية تعتمد على البيانات للقيادة الذاتية. يمكنه محاكاة ليس فقط الفيديو المباشر ، ولكن أيضًا بيانات LiDAR وكاميرات الأحداث ، وأيضًا دمج مركبات محاكاة أخرى لنمذجة مواقف القيادة المعقدة. VISTA مفتوح المصدر ويمكن العثور على الكود أدناه.

يختلف برنامج VISTA 2.0 ، الذي يعتمد على النموذج السابق للفريق ، VISTA ، اختلافًا جوهريًا عن محاكيات AV الحالية لأنه يعتمد على البيانات. هذا يعني أنه تم بناؤه وتقديمه بطريقة واقعية من بيانات العالم الحقيقي ، مما يسمح بنقله المباشر إلى الواقع. في حين أن التكرار الأولي يدعم فقط تتبع مسار سيارة واحد باستخدام مستشعر كاميرا واحد ، فإن تحقيق محاكاة عالية الدقة تعتمد على البيانات يتطلب إعادة التفكير في أساسيات كيفية تصنيع أجهزة الاستشعار المختلفة والتفاعلات السلوكية.

أدخل VISTA 2.0: نظام يعتمد على البيانات يمكنه محاكاة أنواع أجهزة الاستشعار المعقدة والسيناريوهات والتقاطعات التفاعلية واسعة النطاق. باستخدام بيانات أقل بكثير من النماذج السابقة ، تمكن الفريق من تدريب المركبات المستقلة التي يمكن أن تكون أكثر قوة بشكل ملحوظ من تلك المدربة على كميات كبيرة من بيانات العالم الحقيقي.

يقول ألكساندر: “هذه قفزة هائلة في إمكانات المحاكاة المستندة إلى البيانات للمركبات ذاتية القيادة ، فضلاً عن زيادة الحجم والقدرة على التعامل مع تعقيدات القيادة الأكبر”. أميني ، طالب دكتوراه في CSAIL ومؤلف مشارك لورقتين بحثيتين جديدتين مع زميلته في الدكتوراه Tsun-Hsuan Wang. “يوضح VISTA 2.0 القدرة على محاكاة بيانات المستشعر إلى ما هو أبعد من كاميرات 2D RGB ، ولكن أيضًا ليدار ثلاثي الأبعاد للغاية مع ملايين النقاط ، والكاميرات القائمة على الأحداث في توقيت غير منتظم ، وحتى تفاعلية وديناميكية مع المركبات الأخرى أيضًا.”

كان فريق العلماء قادرًا على تكييف تعقيد مهام القيادة التفاعلية لأشياء مثل التجاوز والمتابعة والتفاوض ، بما في ذلك السيناريوهات متعددة الوكلاء في بيئات عالية الواقعية.

نظرًا لأن معظم بياناتنا (لحسن الحظ) تتعلق فقط بالقيادة اليومية الشائعة ، فإن نماذج الذكاء الاصطناعي التدريبية للمركبات ذاتية القيادة تتضمن علفًا يصعب تأمينه لأنواع مختلفة من الحالات المتطورة والسيناريوهات الغريبة والخطيرة. منطقيا ، لا يمكننا فقط الاصطدام بسيارات أخرى فقط لتعليم الشبكة العصبية كيف لا تصطدم بسيارات أخرى.

في الآونة الأخيرة ، كان هناك انتقال بعيدًا عن بيئات المحاكاة الأكثر كلاسيكية والمصممة بشريًا إلى تلك المبنية من بيانات العالم الحقيقي. تتمتع الأخيرة بواقعية هائلة ، لكن يمكن للأول أن يصمم بسهولة الكاميرات الافتراضية و lidars. مع هذا التحول النموذجي ، ظهر سؤال رئيسي: هل يمكننا التوليف الدقيق لثراء وتعقيد جميع المستشعرات التي تحتاجها المركبات ذاتية القيادة ، مثل الليدار وكاميرات الأحداث النادرة؟

يصعب تفسير البيانات من مستشعرات Lidar في عالم يحركه البيانات – فأنت تحاول أساسًا إنشاء سحب نقطية ثلاثية الأبعاد جديدة تمامًا بملايين النقاط ، فقط من وجهات نظر متفرقة للعالم. لتجميع غيوم نقطة ليدار ثلاثية الأبعاد ، استخدم الباحثون البيانات التي جمعتها السيارة ، وعرضوها في مساحة ثلاثية الأبعاد من بيانات الليدار ، ثم تركوا مركبة افتراضية جديدة تتحرك محليًا من الموقع حيث كانت السيارة الأصلية موجودة. أخيرًا ، قاموا بإسقاط كل هذه المعلومات الحسية في إطار الرؤية لهذه السيارة الافتراضية الجديدة ، باستخدام الشبكات العصبية.

إلى جانب محاكاة الكاميرات القائمة على الأحداث ، والتي تعمل بسرعات تزيد عن آلاف الأحداث في الثانية ، كان المحاكي قادرًا ليس فقط على محاكاة هذه المعلومات متعددة الوسائط ، ولكن أيضًا القيام بذلك في الوقت الفعلي. هذا يجعل من الممكن تدريب الشبكات العصبية في وضع عدم الاتصال ، ولكن أيضًا للاختبار عبر الإنترنت على السيارة في إعدادات الواقع المعزز لإجراء تقييمات آمنة. يقول أميني: “ما إذا كانت محاكاة أجهزة الاستشعار المتعددة بهذا الحجم من التعقيد والواقعية ممكنة في عالم المحاكاة القائمة على البيانات ، كان سؤالًا مفتوحًا للغاية”.

مع هذا ، تصبح مدرسة القيادة حفلة. في المحاكاة ، يمكنك التنقل ، ولديك أنواع مختلفة من وحدات التحكم ، ومحاكاة أنواع مختلفة من الأحداث ، وإنشاء سيناريوهات تفاعلية ، وإسقاط المركبات الجديدة التي لم تكن موجودة حتى في البيانات الأصلية. لقد اختبروا السيناريوهات التالية: المسار ، والانعطاف ، ومتابعة السيارة ، والسيناريوهات الأكثر خطورة مثل التجاوز الثابت والديناميكي (رؤية العوائق والتحرك لتجنب الاصطدام). من خلال الوكالات المتعددة ، يتفاعل الوكلاء الحقيقيون والمحاكون ، ويمكن إسقاط وكلاء جدد في المشهد والتحكم بهم بأي طريقة.

من خلال نقل سيارتهم بالحجم الكامل إلى “البرية” – المعروفة أيضًا باسم Devens ، ماساتشوستس – رأى الفريق قابلية نقل فورية للنتائج ، مع كل من الإخفاقات والنجاحات. وتمكنوا أيضًا من إظهار الكلمة السحرية والجريئة لنماذج السيارات ذاتية القيادة: “قوية”. لقد أظهروا أن المركبات ذاتية القيادة ، المدربة بالكامل على VISTA 2.0 ، كانت قوية جدًا في العالم الحقيقي بحيث يمكنها التعامل مع تلك السلسلة المراوغة من الإخفاقات الصعبة.

الآن ، أحد حواجز الأمان التي يعتمد عليها البشر ولا يمكن محاكاته بعد هو المشاعر الإنسانية. إنها الموجة الودية ، أو الإيماءة ، أو المفتاح الوامض للاعتراف ، وهي نوع من الفروق الدقيقة التي يريد الفريق تنفيذها في العمل المستقبلي.

يقول أميني: “الخوارزمية المركزية لهذا البحث هي كيف يمكننا أخذ مجموعة بيانات وبناء عالم تركيبي بالكامل للتعلم والاستقلالية”. “إنها منصة أعتقد أنها يمكن أن تتوسع يومًا ما في العديد من المحاور المختلفة من خلال الروبوتات. ليس فقط القيادة الذاتية ، ولكن العديد من المجالات التي تعتمد على الرؤية والسلوكيات المعقدة. نحن متحمسون لإصدار VISTA 2.0 للسماح للمجتمع بجمع مجموعات البيانات الخاصة بهم وتحويلها إلى عوالم افتراضية حيث يمكنهم مباشرة محاكاة مركباتهم الافتراضية المستقلة ، والقيادة على هذه التضاريس الافتراضية ، وتدريب المركبات المستقلة في هذه العوالم ، ثم يمكنهم نقلها مباشرة إلى سيارات ذاتية القيادة كاملة الحجم حقيقية.

المرجع: “VISTA 2.0: محاكي مفتوح قائم على البيانات للاستشعار متعدد الوسائط وتعلم السياسة للمركبات ذاتية القيادة” بقلم ألكسندر أميني وتسون هسوان وانج وإيجور جيليتشينسكي وويلكو شوارتينج وزيجيان ليو وسونغ هان وسيرتك كارامان ودانييلا روس ، 23 نوفمبر 2021 ، تكنولوجيا المعلومات> الروبوتات.
arXiv: 2111.12083

كتب أميني ووانغ المقال جنبًا إلى جنب مع Zhijian Liu ، طالب الدكتوراه في MIT CSAIL ؛ إيغور جيليتشينسكي ، الأستاذ المساعد في علوم الكمبيوتر بجامعة تورنتو ؛ ويلكو شوارتنج ، باحث في الذكاء الاصطناعي و MIT CSAIL PhD ’20 ؛ سونغ هان ، الأستاذ المساعد في قسم الهندسة الكهربائية وعلوم الكمبيوتر في معهد ماساتشوستس للتكنولوجيا ؛ سيرتاك كارامان ، الأستاذ المشارك في علم الطيران والملاحة الفضائية بمعهد ماساتشوستس للتكنولوجيا ؛ ودانييلا روس ، أستاذة في معهد ماساتشوستس للتكنولوجيا ومديرة CSAIL. قدم الباحثون عملهم في مؤتمر IEEE الدولي حول الروبوتات والأتمتة (ICRA) في فيلادلفيا.

تم دعم هذا العمل من قبل المؤسسة الوطنية للعلوم ومعهد أبحاث تويوتا. يقر الفريق بدعم NVIDIA من خلال التبرع بـ Drive AGX Pegasus.


Source link

مقالات ذات صلة

أضف تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني.

Back to top button