От: | Karamat | ||
Дата: | 26.01.18 08:17 | ||
Оценка: | 6 (3) |
Искусственный интеллект — это будущее не только России, это будущее всего человечества. Тот, кто станет лидером в этой сфере, будет властелином мира.
все бросились делать самоездящие машинки для простейших условий: удобная дорожка, солнце, аккуратная разметочка… Первым это сделал Google, а потом сделали все. 2016 год был пиком самоездящих тележек.
Мы привезли системы автономного управления автомобилем, которые не боятся снега, грязи и бездорожья. Это три вида новой, готовой к продажам продукции.
Вас официально признали лидером?
Да, мы получили премию британского аналитического агентства Softech — Cognitive Computing, AI & Robotics Awards 2017. Нас признали мировыми лидерами.
И мирный советский тракторУ нас есть девять машин: и легковые, и грузовые, и сельскохозяйственные.
От: | L.Long | ||
Дата: | 26.01.18 08:40 | ||
Оценка: |
K>Искусственный интеллект — это будущее не только России, это будущее всего человечества. Тот, кто станет лидером в этой сфере, будет властелином мира.
Машина не должна думать — машина должна ездить! (с) Н.С.Хрущев
От: | Sheridan | ||
Дата: | 28.01.18 09:51 | ||
Оценка: |
Если говорить об открытости, то есть два способа развития программного обеспечения (ПО): либо делать все на открытом коде как Linux (вы отдаете исходный код в мир, все разрабатывают, и в итоге получается нечто, что может быть дает большой прорыв), либо вы всю ответственность берете на себя, работаете на коде, который только ваш, и делитесь с отдельными разработчиками под определенные условия. Вы выбрали второй путь…
Дело в том, что речь идет о безопасности и жизни человека. И мы не можем забывать про две позиции. Про террористический мир и про уголовную ответственность производителя за здоровье человека. Поэтому в этом ПО — во всяком случае в ближайшие десять лет — я не вижу возможности открытого кода.
То есть, уголовную ответственность вы берете на себя?
Это во-первых. Во-вторых, не надо обучать террористов. Если ты открываешь код для нормальных людей, он открывается и для них, а это крайне опасно. Это хуже, чем открытое атомное оружие. С этой точки зрения ИИ очень уязвим.