Code Blocks • Add nice looking code blocks with syntax highlighting. • Copy full code block by click on its header. • Send a highlighted code block using ```language syntax.
Но синтаксис не подсвечивается. У кого-нибудь работает?
И вот это тоже не могу найти:
• View full statistics in your channels and group chats.
У меня на домашнем компьютере dragonfly в 2 раза медленнее чем redis и в 1.8 раза медленнее чем keyDB. Тестил на set, get, rpush, lrange без pipe. Запускал через докер.
upd. на всякий случай сбилдил, всё равно медленно.
Не оч понял почему вы аппелируете к "некоторым банкам". Сходить в другие банки религия не позволяет? Комиссия в $150 не должна пугать тех, кто релоцируется в Турцию.
Сравнивал на днях две операции у Numpy и CuPy - перемножение матриц и интерполяцию. CuPy выиграл в три раза перемножение, но проиграл в три раза интерполяцию. А по примитивной логике должна быть разница в десятки раз.
Если в обучающем датасете не будет зелёных крон, то обучить модель распознавать зелёные кроны на таком датасете не получится =)
Если предположить, что нужно работать с тем что есть, а именно с зимней съёмкой... Как-то обучал нейросетку распознавать засохшие кроны/деревья на летней аэрофотосъёмке с дрона и всё работало отлично. Когда из интереса нейросетке подсунули зимние фотки, то она тоже справилась. То есть можно распознавать голые зимние кроны и по ним экстраполировать зелёные кроны.
Не стал изобретать велосипед и просто выбрал самую лучшую архитектуру из тестов ImageNet. На тот момент это была EfficientNet. Так как она полностью удовлетворила потребности и была лучшей в ImageNet, то решил что дальше экспериментировать с архитектурами нет особого смысла. И была проблема в обучающем датасете - маски для деревьев раскрашивались вручную и он был мал. В этом случае бутылочным горлышком при сравнении могла стать не архитектура, а датасет. Тем не менее, есть жалобы на EfficientNet, что она не такая уж и efficient и готов в какой-то степени их поддержать: https://gist.github.com/rwightman/ccbba19a21a4e6c6c9d54c0de64c0e64. В самом конце текущей статьи есть ссылка на сравнение разных PyTorch-версий моделей CV и вот ещё сравнение: https://paperswithcode.com/sota/image-classification-on-imagenet, но тут больше по рисёчам, которые часто далеки от продакшена и эмпирики.
Не знаю, я занимался только нейронкой =(
Мне кажется оба термина тут вполне уместны, и fine tuning, и дообучение. Так как дообучающий датасет был как раз по задаче — маска для деревьев.
Никто не использует большую часть из того что вы написали. А используют то, что вы как раз не написали и что не растёт из экосистемы JS.
Как же не соврать ради красивого концепта.
Вы уж определитесь: ChatGPT-4 или ChatGPT-4 Turbo. Это разные модели. Первую превосходит, вторую нет.
Маркетологи Anthropic именно в этом месте поставили ловушку невнимательному читателю.
У вас ошибка в самом начале поста, Claude-3 Opus проигрывает ChatGPT-4 Turbo по всем тестам.
Вариант только один - copilot. Отзывы не читал, использую полгода.
Почему вообще рассматривается вариант костыльных китайских поделок из подвалов - непонятно.
Давно. Если срубить дерево и пустить на что-то полезное, а взамен вырастить новое дерево, то это уберёт CO2 из атмосферы.
Конечно есть софт, в котором всё уже продумано и сделано вместо костылей на коленке, в том числе бэкапы БД: AWS, GCP, Azure
У меня вот такое в changelog телеги:
Code Blocks
• Add nice looking code blocks with syntax highlighting.
• Copy full code block by click on its header.
• Send a highlighted code block using ```language syntax.
Но синтаксис не подсвечивается. У кого-нибудь работает?
И вот это тоже не могу найти:
• View full statistics in your channels and group chats.
Причём в превью это не показано.
Восстание машин показывают, но пока только в симулятореВот эта новость - фейк, автору незачёт.
У меня на домашнем компьютере dragonfly в 2 раза медленнее чем redis и в 1.8 раза медленнее чем keyDB. Тестил на set, get, rpush, lrange без pipe. Запускал через докер.
upd. на всякий случай сбилдил, всё равно медленно.
Не оч понял почему вы аппелируете к "некоторым банкам". Сходить в другие банки религия не позволяет? Комиссия в $150 не должна пугать тех, кто релоцируется в Турцию.
В Турции несложно и без ВНЖ получить visa/mastercard
Сравнивал на днях две операции у Numpy и CuPy - перемножение матриц и интерполяцию. CuPy выиграл в три раза перемножение, но проиграл в три раза интерполяцию. А по примитивной логике должна быть разница в десятки раз.
Космо
Если в обучающем датасете не будет зелёных крон, то обучить модель распознавать зелёные кроны на таком датасете не получится =)
Если предположить, что нужно работать с тем что есть, а именно с зимней съёмкой... Как-то обучал нейросетку распознавать засохшие кроны/деревья на летней аэрофотосъёмке с дрона и всё работало отлично. Когда из интереса нейросетке подсунули зимние фотки, то она тоже справилась. То есть можно распознавать голые зимние кроны и по ним экстраполировать зелёные кроны.
Не стал изобретать велосипед и просто выбрал самую лучшую архитектуру из тестов ImageNet. На тот момент это была EfficientNet. Так как она полностью удовлетворила потребности и была лучшей в ImageNet, то решил что дальше экспериментировать с архитектурами нет особого смысла. И была проблема в обучающем датасете - маски для деревьев раскрашивались вручную и он был мал. В этом случае бутылочным горлышком при сравнении могла стать не архитектура, а датасет. Тем не менее, есть жалобы на EfficientNet, что она не такая уж и efficient и готов в какой-то степени их поддержать: https://gist.github.com/rwightman/ccbba19a21a4e6c6c9d54c0de64c0e64. В самом конце текущей статьи есть ссылка на сравнение разных PyTorch-версий моделей CV и вот ещё сравнение: https://paperswithcode.com/sota/image-classification-on-imagenet, но тут больше по рисёчам, которые часто далеки от продакшена и эмпирики.
Не знаю, я занимался только нейронкой =(
Мне кажется оба термина тут вполне уместны, и fine tuning, и дообучение. Так как дообучающий датасет был как раз по задаче — маска для деревьев.
Самый современный, интересный и воодушевляющий аспект нейтрино — майорановское нейтрино. Почему-то про это в статье ни слова (((
Так там есть и время, когда пойдёт на спад. Это когда наклон на последнем графике перестаёт увеличиваться и начинает снижаться.
Первый график по ссылке как раз о том как предсказывать не имея данных о дате пика
Вот, например, даже недельной давности:
celado-ai.ru/blog/Covid-Disease-Peak-Forecast-in-Moscow