Pull to refresh
0
0
Send message
Почему же? Если человек будет находиться в металлической коробке на земле, разбежится и ударится о ее стенку то он таки ее сдвинет. Другое дело что сила трения быстро прекратит такое движение. а давайте предположим, что у нас есть куча маленьких человечков обладающих свойствами фотона, энергию которым сообщает электрическая установка, а сама коробка в космосе…
Этого никто не пробовал, хоть и звучит логично, что такое инерция понимают плохо. Ближайший пример — фотон несмотря на то, что это безмассовая частица, мы можем наблюдать такое явления как давление света.
Самосознание выходит из самоанализа. Если сильный ИИ сможет и будет обрабатывать весь объем данных поступающих в него, в т.ч. способ, манера и др особенности общения с оператором то в полне возможно в какой то момент он может обзавестись личностью.
А смысл? Катастрофы не редки. При предлагаемом способе обнаружения "пропавшая" планета буде просто списана. Обратит на себя внимание обратная ситуация, когда ничего не было, а ту раз планета появилась.
А что касается идеи в целом, свет, лазер и иные электромагнитные волну уж слишком медленные (ИМХО) и развитые инопланетяне освоившие "быстрые" перелеты должны иметь более надежные способы связи и обнаружения, а наш сигнал теряется в общем шуме.
Ок, я не на стороне правообладателей ни в коем случае, но разве само название (звездный путь) и совокупность и концепция вселенной не является информацией подпадающие под закон по защите авторских прав.
PS Меня так же тут заинтересовал вопрос, фанатические произведения (книги, например, по warchamer) как уживаются с правообладателями?
Так как раз об этом я не спорю. В споре вообще смешалось все в кучу, и ИИ, и робототехника. Даже если ИИ нельзя будет привить "человечность", то результаты его анализа могут быть в любом случае полезны и помочь экспертам в разных областях.
Тут по мне принцип "пока не попробуешь не узнаешь". С одной стороны да, такой ИИ будет нужен узкому кругу людей, но не предугадаешь каким образом он может изменить жизнь обычных людей.
Я писал, ИИ и ИР разные вещи. Отличие существующих систем обработки данных от моего понимание ИИ — это универсальность и адаптивность. В моем понимании ИИ просто обладают большим объемом данных и условной "экспертизой" в разных областях (что может быть недостижимо для человека) он может найти ответ (вероятно не тривиальный) на вопрос сформулированный на естественном языке. В процессе поиска ответа возможно произвести различные расчеты, построить пару гипотез, проверить их (теоретически) и выдать результат. В тоже время ИИ должен хорошо понимать семантику задачи и вопроса. В принципе это тоже что может делать человек. На самом деле у "правильного" ИИ не должно быть сложностью с морали, потому что в целом любой человек осознает, что убивать/воровать наносить повреждения имуществу или соседу плохо, но помимо всего важен контекст, самооборона/лечение/гуманизм/выживание. При том даже люди (а мы считаем себя вполне разумными) во многих спорных ситуациях не могут понять какое из возможных вариантов решения более правильное с учетом общепринятых установок (не убей/ не укради). Хотя бы вопрос эвтаназии, нет единого мнения на этот счет, это очень сложный моральный выбор, как для врача, как и для пациента и его родных. Единственным преимуществом ИИ в данном контексте я вижу в том что это будет разносторонняя экспертная система которая может с большей чем любой человек точностью просчитать последствия различных действий и на основе этого принимать или рекомендовать оптимальное решение. Прошу прощение за такую телегу.
Если ИИ будет индивидуальным ассистентом с кучей датчиков, он беспристрастно сможет проанализировать большой объем данных о человеке, определить его эмоциональное состояние и дать более точный совет, нежели общий высказывание друзей и СМИ. В данном варианте это продвинутый вариант личного психолога.
А я как раз ответил, что именно при такой расплывчатой формулировке могут быть проблемы и необходимо четче формулировать задачу.
Первое, вы не описали какая у ИИ задача в каждом случае.
Второе, я отметил, что для того что бы избежать непредвиденных последствий от действий тупого ИИ нужно четко формулировать задачу для него со всеми нюансами. Но продолжим-с
1) ИИ может более таргетированно подобрать время место и способ воздействия (если это индивидуальный ассистент).
2) Тут для ИИ проще разбираться с последствиями (если таковые будут), вовремя поддержать, удержать от суицида в запущенном случае (если опять же речь идет об ассистенте). Возможно связаться с таким же ИИ ассистентом девушке и еще что нить предпринять.
3) Тут важно разделять объявление в СМИ и личное оповещение, а так же
ЦЕЛИ ИИ
(устал я уже повторять), если цель спасти максимальное число людей, то нужно все просчитать и выбрать самую оптимальную стратегию. И мне сомнительно, что бы перед ИИ ставили такие задачи как то решать оповещать или не оповещать, банально. В случае личного ассистента, с учетом психологического профиля, скорее да чем нет.
То, что мы на данном уровне развития не можем ответить на ваши вопросы, не значит что это невозможно в принципе. А что если ИИ на основе совокупности данных может просчитать все последствия своих действий (и действий самого человека). А что касается "объявлений о катастрофе" то тут важно какие у ИИ цели и каков их приоритет.
У вас не вполне корректно сформулированы вопросы. Я лишь отметил, что для ИИ во избежания проблем необходимо полностью описывать задачу во всех нюансах, что вы полностью проигнорировали и когда составляли ответ и когда формулировали вопросы. Но давайте пофантазируем, и представим что у нас сверх гениальный ИИ.
1) При условии, что силовой метод запрещен, я бы на месте ИИ проводил активную пропаганду и манипуляцию.
2) Тут вопрос философский, а вредно ли это? И если да, то при каких условиях? Я думаю вы так же не можете ответить на этот вопрос.
3) Здесь скорее страшна паника и ее последствия нежели плохие эмоции, я бы об этом думал прежде всего.
В любом случае вопросы плохо сформулированы.
ИИ и ИР как по мне разные вещи. И смешивать эти понятия нельзя.
Все уже придумано до нас. Достаточно вспомнить сказки про джинов, нужно уметь четко формулировать свои желания, что бы не вышло конфликта. А в контексте данного разговора, нужно описывать более полно задачу для ИИ со всеми присущими ограничениями.
Мне интересно, что появилось раньше, проект Azer'a или зарегистрировали торговую марку kik. Да и Боб повел себя как мудак, с начало писал «мы надеемся» и разные уважительные слова, а позже настучал в поддержку.
Все равно есть разница, и официальная ИМХО в самом низу списка по качеству.
Я бы добавил, что искусственный интеллект != искусственный разум. Машина может быть насколько угодно "умной" и выигрывать в любую игру и предсказывать погоду, но вряд ли у нее появится и проявится своя воля.
А что делать тем странам которые на данный момент, условно мирные но имеют свою армию, суверенитет и закрытые границы. Но при этом тайно, например разрабатывают свое ядерное оружие (но об этом нет намека). Предлагаемому союзу напасть на данную страну и предлагать "сотрудничество" принудительно?
1
23 ...

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity