N>А они придумали, как защищать людей от излучения в таких полетах?
Достаточно фольги в 1 слой. Или вы приверженец теорий заговора, что пилоты Аполло не могли вернуться с Луны без лучевой болезни?
Здравствуйте, Osaka, Вы писали:
N>>А они придумали, как защищать людей от излучения в таких полетах? O>Достаточно фольги в 1 слой. Или вы приверженец теорий заговора, что пилоты Аполло не могли вернуться с Луны без лучевой болезни?
Сурдин об этом говорил. Астронавты дозу получили, но полет то длился неделю. За неделю не слишком много. В принципе и до Марса можно долететь, доза будет приемлемая. А вот для полетов к звездам нужна будет свинцовая защита, которая утяжелит массу станции слишком значительно.
Здравствуйте, Shmj, Вы писали:
N>>>А они придумали, как защищать людей от излучения в таких полетах? O>>Достаточно фольги в 1 слой. Или вы приверженец теорий заговора, что пилоты Аполло не могли вернуться с Луны без лучевой болезни?
S>Сурдин об этом говорил. Астронавты дозу получили, но полет то длился неделю. За неделю не слишком много. В принципе и до Марса можно долететь, доза будет приемлемая. А вот для полетов к звездам нужна будет свинцовая защита, которая утяжелит массу станции слишком значительно.
А сильный магнит не поможет? Земля-то отклоняет заряженные частицы как раз своим магнитным полем. В космосе наверное можно будет организовать большой магнит из сверхпроводимого материала, к примеру по периметру звездолёта, который после запуска даже энергию потреблять не будет, если я правильно понимаю физику процесса.
Здравствуйте, vsb, Вы писали:
vsb>А сильный магнит не поможет? Земля-то отклоняет заряженные частицы как раз своим магнитным полем. В космосе наверное можно будет организовать большой магнит из сверхпроводимого материала, к примеру по периметру звездолёта, который после запуска даже энергию потреблять не будет, если я правильно понимаю физику процесса.
У земли то область действия магнита — сотни километров.
Здравствуйте, Shmj, Вы писали: S>Вся тусовка сейчас ушла в нейросетевые технологии. Все там. И железо и куча новы библиотек и модели.
А если спуститься в московское метро, то покажется, что весь движ — там
И люди, и железо.
Откуда смотришь — то и видишь. У нас вот в пятницу было закрытие летней школы Сберлаб НГУ.
Ну, да, нейросетки там, конечно же, были. И AI-генерация рецептов для похудания, и детектирование амурских тигров по фотографии.
Но тут же рядом, к примеру, исследования гибридных Transactional/Analytic СУБД. Потому что внезапно оказывается, что на вопрос "сколько денег принесли компании в 2023 году IT-ипотечные кредиты" СУБД отвечает точнее, чем любой гигачат.
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, Shmj, Вы писали:
S>Сурдин об этом говорил. Астронавты дозу получили, но полет то длился неделю. За неделю не слишком много. В принципе и до Марса можно долететь, доза будет приемлемая. А вот для полетов к звездам нужна будет свинцовая защита, которая утяжелит массу станции слишком значительно.
Свинцовая не нужна, можно например запасы воды хранить в двойных стенках корпуса и полезный груз и вполне приличная радиационная защита.
Здравствуйте, Pyromancer, Вы писали:
P>Свинцовая не нужна, можно например запасы воды хранить в двойных стенках корпуса и полезный груз и вполне приличная радиационная защита.
В любом случае — понадобятся другие физические основы — не те двигатели ракетные, которые есть сейчас. Их сколько не усиливай — толку не будет
Здравствуйте, Pyromancer, Вы писали:
P>Свинцовая не нужна, можно например запасы воды хранить в двойных стенках корпуса и полезный груз и вполне приличная радиационная защита.
И вот тут приходит призрак Ньютона со своими импульсами и ускорениями. А за ним призрак Энштейна.
И может в итоге оказаться, что проще всю планету по космосу таскать, чем корабли межзвездные построить.
Здравствуйте, Nuzhny, Вы писали:
N>Примерно так и будет с ИИ.
А пока с llama примерно так:
1.Напиши код на с++, возвращающий индексы четных элементов вектора из интов — ошибки в коде, когда попросил использовать range-based for loop
2. Обсуждение использования RLS алгоритма для винеровской фильтрации — ошибки в формулах
3. Обсуждение расстояния Левенштейна — более-менее норм (а может не заметил) говорили про разные версии — с трейсбеком и без, о том как сэкономить память (тут были описания, кода не было). Вродеошибок не было или я не заметил
4. Обсуждение ODE солверов методом Рунге-Кутта — вроде ОК, Там спросил объяснить метод и дать больше инфы о методах высокого порядка.
В случаях 1-2 ошибки были такие, что в глаза не бросаются. Но на человека непохожие. Редко кто одновременно (буквально в соседних предложениях) проявляет смекалку и какой-то нечеловеческий кретинизм
Пока я насторожен. Спрашивать то, что реально НЕ знаешь стремно как-то.
Здравствуйте, paucity, Вы писали:
P>и что там сейчас в трендах?
Вот HTAP как раз и в трендах.
В основном — Postgres-compatible решения. Neon, YugabyteDB, YDB.
Есть исследования про то, как приделать cуществующий Columnstore бэк к Postgres фронту (реализуя access method).
Есть про то, как сделать гибридный бэк с нуля (L-Store).
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, andyp, Вы писали:
A>Зачем качать? Запустил с huggingface.co/chat дефолтная llama 3.1-70B, не самая большая. У меня столько вычислительной дури под рукой нет.
Да вроде и самая большая там есть.
Однако же попробовал пару вопросов задать — оно не перешло барьер полезности. https://chatgpt.com/ уже может быть действительно полезным.
Здравствуйте, andyp, Вы писали:
A>Пока я насторожен. Спрашивать то, что реально НЕ знаешь стремно как-то.
Это текущий бытовой подход работы с LLM. Сейчас проектируются и обсуждаются мультиагентные системы, связанные в графы. Агенты могут не просто перерабатывать текст, но и вызывать callback'и: поиск в Гугле, математические решатели, компиляторы и т.д.
Вершины графа — это разные LLM (или одинаковые, но с разными промтами), рёбра графа — текст. Для написания программы можно сделать граф, например такой:
1. Одна LLM-менеджер читает ТЗ от пользователя и передаёт её LLM-программисту, а также LLM-писателю интеграционных тестов
2. Вторая LLM-программист пишет код и передаёт её LLM-писателю юнит тестов, а также LLM-интегратору
3. Третья LLM-писатель юнит тестов пишет тесты и передаёт их также LLM-интегратору
4. Четвёртая LLM-интегратор компилирует программу и тесты, в случае ошибок формулирует их и отдаёт назад (2) и (3)
5. Пятая LLM-писатель интеграционных тестов запускает удачный билд от (4). Результат отдаёт (1), который проверяет на соответствие ТЗ и в случае несоответствия корректирует заново весь цикл.
В таком варианте тебе достанется уже не просто код с возможными галлюцинациями, а проверенный несколькими разными нейросетями код, что явно лучше и надёжнее. Кажется, что вот это один из примеров, если я ничего не путаю: GPTSwarm
P.S. Далее теоретики планируют скрестить всё это дело с блокчейном для верификации и запускать вот это всё чуть ли не в экономику в качестве полноправного участника рынка, а то и электронное правительство конструировать.
N>Это текущий бытовой подход работы с LLM. Сейчас проектируются и обсуждаются мультиагентные системы, связанные в графы. Агенты могут не просто перерабатывать текст, но и вызывать callback'и: поиск в Гугле, математические решатели, компиляторы и т.д.
Ну я ж не спец по сетям совсем, так что подход действительно бытовой.
N>Вершины графа — это разные LLM (или одинаковые, но с разными промтами), рёбра графа — текст. Для написания программы можно сделать граф, например такой: N>1. Одна LLM-менеджер читает ТЗ от пользователя и передаёт её LLM-программисту, а также LLM-писателю интеграционных тестов N>2. Вторая LLM-программист пишет код и передаёт её LLM-писателю юнит тестов, а также LLM-интегратору N>3. Третья LLM-писатель юнит тестов пишет тесты и передаёт их также LLM-интегратору N>4. Четвёртая LLM-интегратор компилирует программу и тесты, в случае ошибок формулирует их и отдаёт назад (2) и (3) N>5. Пятая LLM-писатель интеграционных тестов запускает удачный билд от (4). Результат отдаёт (1), который проверяет на соответствие ТЗ и в случае несоответствия корректирует заново весь цикл.
На сколько понял, поиск уже и в чатике есть. Поэтому имхо и бессмысленно это всё выкачивание моделек к себе.
N>В таком варианте тебе достанется уже не просто код с возможными галлюцинациями, а проверенный несколькими разными нейросетями код, что явно лучше и надёжнее. Кажется, что вот это один из примеров, если я ничего не путаю: GPTSwarm
N>P.S. Далее теоретики планируют скрестить всё это дело с блокчейном для верификации и запускать вот это всё чуть ли не в экономику в качестве полноправного участника рынка, а то и электронное правительство конструировать.
Здравствуйте, Nuzhny, Вы писали:
N>P.S. Далее теоретики планируют скрестить всё это дело с блокчейном для верификации и запускать вот это всё чуть ли не в экономику в качестве полноправного участника рынка, а то и электронное правительство конструировать.
Ну пока, для начала, путь кто-то покажет как все это будет писать сложные многофайловые программы и будет ли.
Вот тот же GPT — я очень много с ним работаю. Некоторые люди попробовали и больше никогда не возвращались — им это бесполезно. Но нужно уметь задать запрос, тоже не так просто — это навык, которому не обучают пока в школе, скорее на интуитивном уровне нужно понять.
Так вот, иногда бывает что проскальзывает свойство т.н. китайской комнаты — оно не понимает что говорит. Не часто, т.к. большинство простых кейсов покрыто а сложного я ничего не спрашиваю. Но вот от этого накопления ошибки, имхо, возможно что не уйти. Чем больше будет проект — тем больше накопление ошибки.
Здравствуйте, Nuzhny, Вы писали:
N>Призрак Эйнштейна попросил тебя писать его фамилию без ошибок?
Энштейн не в России родился и фамилию в России не получал, которая была бы написана рускими буковками с руским произношением, так что по-руски можешь писать как угодно, лишь бы тебе поняли другие о ком ты пишешь.