Показаны сообщения с ярлыком искусственный интеллект. Показать все сообщения
Показаны сообщения с ярлыком искусственный интеллект. Показать все сообщения
12 марта 2023 г.

Самолет с ИИ победил человека в воздушном бою

Исследователи из Китайского центра исследований и разработок аэродинамики, финансируемого военными исследовательского института на юго-западе Китая, разработали искусственный интеллект для управления боевым самолетом.

Первые испытания, имитирующие воздушный бой, против человека оказались провальными для последнего. Воздушный бой пришлось прекратить через 90 секунд, поскольку ИИ перехитрил пилота-человека.

Фотография носа истребителя на фоне закатных облаков

Идея использования ИИ для пилотирования существует уже много десятилетий. Хотя это может показаться простым при полете на высоте для гражданского самолета, истребитель — это совершенно другие условия: динамика полета истребителя сильно отличается и быстро меняется в сложных условиях.

В прошлом месяце компания Lockheed Martin сообщила о том, что ее искусственный интеллект для F-16, выполнил пробный полет длительностью 17 часов. Однако китайские исследователи продвинули свой ИИ на несколько шагов вперед, уже имитируя воздушный бой.

Воздушный бой велся не с использованием настоящих истребителей, а с использованием небольших самолетов, при этом пилот-человек, с целью безопасности, управлял самолетом дистанционно.

Когда начался воздушный бой, пилот-человек попытался получить тактическое преимущество, но ИИ предсказывал действия человека и обеспечивал своими маневрами, возможность оставаться позади самолета противника.

Затем пилот-человек резко снизил высоту, надеясь, что ИИ последует его примеру и, возможно, разобьёт самолёт. Вместо того чтобы следовать за человеком, ИИ не клюнул на уловку и держал высоту позади противника.

В дальнейшем человек попробовал применить еще несколько приемов, чтобы обмануть машину, но ни один из них не сработал, поэтому воздушный бой было принято остановить.

ИИ не имеет тех же ограничений, что и человеческое тело, таких как перегрузки, это в значительно степени сыграло в его пользу.

В 2020 году американская компания продемонстрировала аналогичную способность, когда ее наземный ИИ победил опытных пилотов истребителей F-16 в симуляции. Китайским военным удалось не только повторить опыт американцев, но и перенести испытание “в воздух”.

28 февраля 2023 г.

Что ИИ будет делать еще?

Это пост-вопрос? Что искусственный интеллект будет делать в ближайшем будущем?

Нельзя отрицать, что ИИ развивается с невероятной скоростью в самых разных отраслях, таких как проектирование деталей, разработка лекарств, искусство, написание кода, различные классификаторы, идентификация объектов, ответа на вопросы и многое многое другое.

Рост и развитие ИИ в настоящее время опережают закон Мура в геометрической прогрессии. Недавние исследования показали, что производительность систем ИИ за последнее десятилетие удваивалась каждые шесть месяцев или около того. Это стало возможным благодаря множеству новых алгоритмических методов, доступности больших наборов данных и высокой вычислительной мощности.

Это означает, что мы находимся на пороге невероятной волны инноваций. Что нас ждет далее?

24 апреля 2022 г.

ИИ как Коллега, а не Инструмент

Стало известно, что DARPA (Агенство перспективных оборонных исследовательских проектов министерства обороны США) заинтересовано в разработке проекта по принятию решений искусственным интеллектом (ИИ). Новый проект "In the Moment" говорит сам за себя, задачи разрабатываемого ИИ заключается в оперативном принятии решений. Некоторые специалисты считают, что ИИ лишен человеческих эмоций и предубеждений, поэтому компьютерные алгоритмы, в определенных ситуация, помогут спасти значительно число жизней.

Несмотря на то, что проект находится на ранней стадии разработки, но уже вызвал критику от ряда специалистов, ведь сбой в алгоритме работы может поставить жизни людей под угрозу. Однако представители DARPA утверждают, что работа ИИ будет находиться под контролем человека, к тому же эпоха ИИ уже наступила и не использовать возможности компьютеров в сборе, анализе и сортировке информации, для спасения людей, это непозволительно.

Если окунуться в историю проекта DARPA, то эта организация подарила миру такие изобретения как интернет, GPS, метереологические спутники и оно спонcировало разработку вакцины от коронавируса Moderna. Это те изобретения которыми пользуется если не весь мир, то значительная его часть.

Солдат в цифровую эпоху - DARPA

В 60-х годах прошлого века агенство DARPA разработало алгоритм, которые позволит компьютеру играть в шахматы, однако в 70 - 80х годах, из-за ограничений вычислительных возможностей компьютеров, разработки алгоритмов приостановились.

С началом нового тысячелетия произошло "возрождение" в сфере компьютерных вычислений, компьютеры стали дешевле и быстрее. А с появлением возможности выполнять вычисления на графических картах, открылась дорога к проектированию и обучению нейронных сетей.

DARPA рассчитывает превратить компьютеры из инструмента в коллегу, с присущими компьютеру возможностями быстро анализировать большие объемы данных и выполнять сложные вычисления.

Компьютерный коллега поможет человеку принимать решения в условиях быстроменяющихся обстоятельствах. Например, стихийные бедствия, боевые условия. Человек может быть перегружен поступающим объемом данных, что может поставить его в "ступор", однако машина будет лишена такого недостатка.

Например, ИИ может мгновенно оценить ресурсы в близлежащих больницах, такие как наличие медикаментов, запасов крови, наличие свободных мест и перенаправить пациента в то медицинское учреждение, где все необходимые условия соблюдены или они максимизорованы.

Наличие угрозы, моделирование поведения и определение количества, наличия средств противодействия угрозы — это то с чем ИИ справиться значительно быстрее человека. В условиях ограниченных ресурсов, ИИ будут создавать модель, позволяющую действовать с минимальными потерями функциональности.

Но тут возникает вопрос: кто будет нести ответственность, если алгоритм даст сбой или если в условиях ограниченных ресурсов, кому-то не будет оказана помощь? Если у человека есть сожаление и он может хотя бы извиниться, покаяться, то алгоритм этого не может.