Финляндия по-русски

Финляндия по-русски (https://www.russian.fi/forum/index.php)
-   Работа, образование, учеба (https://www.russian.fi/forum/forumdisplay.php?f=13)
-   -   Как сейчас в Финляндии с работой в IT? (https://www.russian.fi/forum/showthread.php?t=86036)

SergeyD 09-11-2025 13:03

Цитата:
Сообщение от Suhov
Возможно причина в неполном контексте, передавай модели весь проект, ибо по умолчанию часто они видят только редактируемый файл. Также можно разрешить копать гитхаб по связанным репозиториям, тогда у модели плюс-минус будет понимание того, что там есть, и как в этом контексте сделать то, что требуется.
Плюс, учитывай, что модели изначально нейтральны, они по умолчанию выполняют то, что требуется, не критикуя и не споря с тобой. Поэтому любую дичь сгенерят, и дополнят "сделано, мой умнейший повелитель" Разреши модели критически относиться к твоим запросам, это повысит качество результатов.


агент видит весь репозиторий проекта. и изменения вносит тоже в нескольких файлах, в зависимости от фичи и особенностей проекта и в десятке файлов может. часто контекст словами довольно сложно передать. просто потому что у тебя в голове уровень знания проекта выше одного репозитория и сухого кода как у ллм. ты еще бизнес-особенности держишь в голове - зависимости с другими компонентами и даже людьми, просто историю развития проекта, не только на основе истории гита и так далее. ллм все это НЕ умеет. но она может держать внутри себя контекст репозитория это правда.
опять же с этим надо просто уметь обращаться. и тогда принесет пользу. но менеджерские замашки типа теперь разрабов можно уволить и все будет так же - это мечты. скорее можно менеджеров уволить и заменить их ллмками.
Сейчас вижу ллмки научили задавать анводящие вопросы что несоклько упрощает картину. но на галлюцинации остается место и за ними надо следить.

Кстати, еще интересно как люди используют этот инструмент не понимая. типа разраб на совсем другом стеке приходит к тебе в репозиторий и начинает фигачить тысячи строк кода новой нужной ему фичи НЕ понимая технологии на которой пишет. потом оно все падает и он не знает чего делать куда бежать кроме вот стектрейс почини а ллм тоже чинит чинит не дочинит потому что тоже не понимает че делать и как правильно. Иногда везет и генерят 1-2 тысячи строк рабочего кода. А потом поверх этого что то надо сделать - и всё. пук среньк. Код неподдерживаемый. А да еще хохма с ревью. один через ллм генерит код. А другой делает через ллм ревью.... и что в итоге? )))

KiDr 09-11-2025 13:36

Цитата:
Сообщение от SergeyD
агент видит весь репозиторий проекта. и изменения вносит тоже в нескольких файлах, в зависимости от фичи и особенностей проекта и в десятке файлов может. часто контекст словами довольно сложно передать. просто потому что у тебя в голове уровень знания проекта выше одного репозитория и сухого кода как у ллм. ты еще бизнес-особенности держишь в голове - зависимости с другими компонентами и даже людьми, просто историю развития проекта, не только на основе истории гита и так далее. ллм все это НЕ умеет. но она может держать внутри себя контекст репозитория это правда.
опять же с этим надо просто уметь обращаться. и тогда принесет пользу. но менеджерские замашки типа теперь разрабов можно уволить и все будет так же - это мечты. скорее можно менеджеров уволить и заменить их ллмками.
Сейчас вижу ллмки научили задавать анводящие вопросы что несоклько упрощает картину. но на галлюцинации остается место и за ними надо следить.

Кстати, еще интересно как люди используют этот инструмент не понимая. типа разраб на совсем другом стеке приходит к тебе в репозиторий и начинает фигачить тысячи строк кода новой нужной ему фичи НЕ понимая технологии на которой пишет. потом оно все падает и он не знает чего делать куда бежать кроме вот стектрейс почини а ллм тоже чинит чинит не дочинит потому что тоже не понимает че делать и как правильно. Иногда везет и генерят 1-2 тысячи строк рабочего кода. А потом поверх этого что то надо сделать - и всё. пук среньк. Код неподдерживаемый. А да еще хохма с ревью. один через ллм генерит код. А другой делает через ллм ревью.... и что в итоге? )))

Топ мэнахерам на это наложить! Им в уши нассат всякие миркосовты, амазоны и иж с ними, а они и начнуть сокращать.

SergeyD 09-11-2025 19:30

Цитата:
Сообщение от KiDr
Топ мэнахерам на это наложить! Им в уши нассат всякие миркосовты, амазоны и иж с ними, а они и начнуть сокращать.

ну у нас был один менеджер. он уже лидам (у всех по разному у нас енжиниринг манагер называется) сказал а зачем вам разработчики вы можете быть менеджерами агентов давать агентам задания они все сделают.

в итоге уволили менеджера. слишком прогрессивен чел был и не понимал как это работает :lol:

SergeyD 09-11-2025 19:40

та это ладно. там еще толпы рекомендаторов которые аи готовы засунуть куда угодно. особенно читаю стоны как бы сделать так чтоб соискатель не использовал ии при этом сами уже готовы даж собес отдать на работу ии. и типа да два ии друг друга собесят. ну че хотели то хотели.

KiDr 09-11-2025 20:15

Цитата:
Сообщение от SergeyD
ну у нас был один менеджер. он уже лидам (у всех по разному у нас енжиниринг манагер называется) сказал а зачем вам разработчики вы можете быть менеджерами агентов давать агентам задания они все сделают.

в итоге уволили менеджера. слишком прогрессивен чел был и не понимал как это работает :lol:

Я не про таких манахеров, это так мальчики на побегушках.

TakeMeH 09-11-2025 20:25

Цитата:
Сообщение от svf
Чтобы что?

Как я уже отметил, у меня лично каких-то глобальных и неразрешимых проблем с использованием разных моделей нет.
Код худо-бедно они "пишут", а вернее комбинируют из разных частей того, на чем обучались. Мусора, навскидку, добавляют до 60% в зависимости от задачи. Ничего, в принципе, необычного.

Я про другие проблемы писал.


Ну откуда ж я знаю вы вообще AI умеете использовать правильно или просто поболтать. Расскажите свой workflow, как вы используете AI.

svf 10-11-2025 11:26

Цитата:
Сообщение от SergeyD
Кстати, еще интересно как люди используют этот инструмент не понимая. типа разраб на совсем другом стеке приходит к тебе в репозиторий и начинает фигачить тысячи строк кода новой нужной ему фичи НЕ понимая технологии на которой пишет.


Стесняюсь спросить - а как все вот_это_вот review проходит?

svf 10-11-2025 11:37

Цитата:
Сообщение от TakeMeH
Расскажите свой workflow, как вы используете AI.


Так вы так и не сказали - зачем мне рассказывать такому-же, как и мне, анониму все детали внутренней кухни на не-профессиональном форуме?

Вопросы и проблемы, которые мне интересны, я описал, и они никак не связаны с "правильностью" использования AI.
Они из другой области.

A19 10-11-2025 12:57

Цитата:
Сообщение от svf
Стесняюсь спросить - а как все вот_это_вот review проходит?

При прямом непротивлении менеджмента (в общем-то его это совершенно устраивает).

Сопротивляться можно, но уже не везде. :shuffle:

Klivsi 10-11-2025 13:00

Цитата:
Сообщение от SergeyD
Рабочий код? а ну да конечно ))
Много эмоций.

А по-сути, для весьма не простой железяки, недавно за несколько часов (за несколько часов!!) с помощью чатаджипити сваян абсолютно рабочий код с кучей хотелок при минимальном моём ручном вмешательстве. Работает прекрасно, всё, что требуется делает. В одном месте только чатджипити сфолил: не смог нужный сигнал выставить, пришлось мне в даташиты залесть. В остальном - просто на 5+!

Я бы подобный код руками неделю минимум ваял, разгребая тучи примеров и копаясь в даташитах.

Ну а ваше "а зачем вообще комментарии нужны" - без комментариев :lol: Считайте, что в нашу контору вы собеседование с ходу провалили.

lexer 10-11-2025 13:27

Цитата:
Сообщение от Klivsi
Много эмоций.

А по-сути, для весьма не простой железяки, недавно за несколько часов (за несколько часов!!) с помощью чатаджипити сваян абсолютно рабочий код с кучей хотелок при минимальном моём ручном вмешательстве. Работает прекрасно, всё, что требуется делает. В одном месте только чатджипити сфолил: не смог нужный сигнал выставить, пришлось мне в даташиты залесть. В остальном - просто на 5+!

Я бы подобный код руками неделю минимум ваял, разгребая тучи примеров и копаясь в даташитах.

Ну а ваше "а зачем вообще комментарии нужны" - без комментариев :lol: Считайте, что в нашу контору вы собеседование с ходу провалили.

По выделенному: это означает лишь то, что данная контора собственно разработкой и не занимается, поскольку общее соглашение о том, что комментарии в коде приносят больше вреда, чем пользы, известно уже лет 20 как. И у такой точки зрения есть достаточно сильные основания. Из контекста понятно, что Вы занимаетесь embedded. Это специфическая область и собственно программирования там мало (и вполне вероятно, что существенную его часть действительно смогут заменить LLM).

SergeyD 10-11-2025 14:20

Цитата:
Сообщение от Klivsi
Много эмоций.

А по-сути, для весьма не простой железяки, недавно за несколько часов (за несколько часов!!) с помощью чатаджипити сваян абсолютно рабочий код с кучей хотелок при минимальном моём ручном вмешательстве. Работает прекрасно, всё, что требуется делает. В одном месте только чатджипити сфолил: не смог нужный сигнал выставить, пришлось мне в даташиты залесть. В остальном - просто на 5+!

Я бы подобный код руками неделю минимум ваял, разгребая тучи примеров и копаясь в даташитах.

Ну а ваше "а зачем вообще комментарии нужны" - без комментариев :lol: Считайте, что в нашу контору вы собеседование с ходу провалили.

я из старой школы. когда еще гпт не было и люди умели читать код глазами и своими мозгами. а не "окей гпт объясни мне что тут происходит". очень жаль что появляется категория разрабов которые не удосужились прочитать базовую базу типа "чистый код". комменты максимум в интерфейсах и максимально осознанные. все что выше этого - мусор. опять же я не сильно против комментов в коде но считаю что при нормально структурированном и более-менее грамотно написанном коде они не нужны.

SergeyD 10-11-2025 14:21

Цитата:
Сообщение от svf
Стесняюсь спросить - а как все вот_это_вот review проходит?

ну как как... так же - один на ии генерит код а другой просит ии отревьювить его. удобно же че.

SergeyD 10-11-2025 14:24

Цитата:
Сообщение от Klivsi
Много эмоций.

А по-сути, для весьма не простой железяки, недавно за несколько часов (за несколько часов!!) с помощью чатаджипити сваян абсолютно рабочий код с кучей хотелок при минимальном моём ручном вмешательстве. Работает прекрасно, всё, что требуется делает. В одном месте только чатджипити сфолил: не смог нужный сигнал выставить, пришлось мне в даташиты залесть. В остальном - просто на 5+!

Я бы подобный код руками неделю минимум ваял, разгребая тучи примеров и копаясь в даташитах.

я выше написал что для прототипирования ллмки подходят вполне годно. а вот итерациями поверх накидывать там уже проблемы возникают. да и прототипируют они только на базе какого то другого кода кем то ранее сделанного и хорошо бы чтоб этот код был сделан не ллмкой. а базовые типовые общеизвестные вещи да оно делает вполне достойно. как появляется специфика - там начинается пук-среньк

KiDr 10-11-2025 17:14

Цитата:
Сообщение от SergeyD
я выше написал что для прототипирования ллмки подходят вполне годно. а вот итерациями поверх накидывать там уже проблемы возникают. да и прототипируют они только на базе какого то другого кода кем то ранее сделанного и хорошо бы чтоб этот код был сделан не ллмкой. а базовые типовые общеизвестные вещи да оно делает вполне достойно. как появляется специфика - там начинается пук-среньк

Ну это как то уже по моему заблуждение что они делают по тому как кто-то уже написал до этого. Это тоже самое что сказать что ты пишешь так по тому что увидел что ктото так написал:)

SergeyD 11-11-2025 10:54

Цитата:
Сообщение от KiDr
Ну это как то уже по моему заблуждение что они делают по тому как кто-то уже написал до этого. Это тоже самое что сказать что ты пишешь так по тому что увидел что ктото так написал:)

это то да. все так же как и люди. на то и ии. но тут дело в том что он все же генерит более тривиально и шаблонно всё. а особенно когда шаблон шаблона шаблона там еще хуже. ну типа генерит на базе того что сам ранее генерил. там знаешь как естественный отбор если была удачная мутация то хорошо. если не было то вымирает. но в ии неудачная модель не умирает она так же множится и начинает генерить парашу еще больше.

я к ллмкам отношусь как с всезнающими по данным джунам. типа могут многое но нужен глаз да глаз. опять же конечно не всё. но что сверху я сам делаю.

интересно я использую агента джуни щас платного. и там видно как квота улетает на разных задачах и вот все честно если задача требует знания глубоко контекста и там реально макаронный код который я бы сам неделю разбирал оно тоже разбирает да часто с ошибками но тоже жрет много квоты на такие задачи. то есть прям можно сопоставить уровень своих когнитивных усилий. если их уйдет много то и ллм сожрет бОльше квоты.

бойлерплейтные тривиальные задачи оно решает хорошо. если нужна креативность там уже иди сам а оно только как помощник поверх твоего кода.

KiDr 12-11-2025 10:01

Цитата:
Сообщение от SergeyD
это то да. все так же как и люди. на то и ии. но тут дело в том что он все же генерит более тривиально и шаблонно всё. а особенно когда шаблон шаблона шаблона там еще хуже. ну типа генерит на базе того что сам ранее генерил. там знаешь как естественный отбор если была удачная мутация то хорошо. если не было то вымирает. но в ии неудачная модель не умирает она так же множится и начинает генерить парашу еще больше.

я к ллмкам отношусь как с всезнающими по данным джунам. типа могут многое но нужен глаз да глаз. опять же конечно не всё. но что сверху я сам делаю.

интересно я использую агента джуни щас платного. и там видно как квота улетает на разных задачах и вот все честно если задача требует знания глубоко контекста и там реально макаронный код который я бы сам неделю разбирал оно тоже разбирает да часто с ошибками но тоже жрет много квоты на такие задачи. то есть прям можно сопоставить уровень своих когнитивных усилий. если их уйдет много то и ллм сожрет бОльше квоты.

бойлерплейтные тривиальные задачи оно решает хорошо. если нужна креативность там уже иди сам а оно только как помощник поверх твоего кода.

ой да лана, да лучше тебя они могут генерировать код, вопрос в том что у них нет такого контекста в голове как у тебя. да и рассуждать они могут довольно посредственно ещё, только увеличивая окно контекста. Матрицы то статичные. Вот когда сами матрицы будут динамичными, будут подстраиваться под контент. Когда модели станут пластичными, вот тогда самая веселуха и начнется:)

lexer 12-11-2025 10:28

Цитата:
Сообщение от KiDr
ой да лана, да лучше тебя они могут генерировать код, вопрос в том что у них нет такого контекста в голове как у тебя. да и рассуждать они могут довольно посредственно ещё, только увеличивая окно контекста. Матрицы то статичные. Вот когда сами матрицы будут динамичными, будут подстраиваться под контент. Когда модели станут пластичными, вот тогда самая веселуха и начнется:)

"Матрицы", если под ними понимаются веса модели уже и так давно динамические в том смысле, что веса постоянно подстраиваются

KiDr 12-11-2025 10:43

Цитата:
Сообщение от lexer
"Матрицы", если под ними понимаются веса модели уже и так давно динамические в том смысле, что веса постоянно подстраиваются

в смысле? в уже обученных моделях они подстраиваются? уже сформированные веса же не меняются? я просто не слышал об этом.

Klivsi 12-11-2025 11:18

Цитата:
Сообщение от KiDr
в смысле? в уже обученных моделях они подстраиваются? уже сформированные веса же не меняются? я просто не слышал об этом.
А что мешает дообучению в процессе? Уева туча алгоримтов существует - научное сообщество же не просто так тучи наукоёмкой макулатуры генерит каждый день :lol:

Просто обычно веса (кстати, не обязательно веса, нейронкам есть уже куча альтернатив, это могут быть и бинарные деревья и т.д.) "зажимают" в уже обученных ИИ, что бы сильно не гуляли от вновь поступающей информации, но в определённых пределах позволяют меняться при дообучении. И, кстати, это - отдельная научная проблема: как не "пережать", но при этом что бы вновь поступающая инфа не перекосила сильно условные вероятности (если речь о марковских-like сетках) или гиперплоскости (если речь о классификаторах/распознователях). Как обычно, пока это отдаётся на опыт и чутьё программера.

lexer 12-11-2025 11:29

Цитата:
Сообщение от Klivsi
А что мешает дообучению в процессе? Уева туча алгоримтов существует - научное сообщество же не просто так тучи наукоёмкой макулатуры генерит каждый день :lol:

Просто обычно веса (кстати, не обязательно веса, нейронкам есть уже куча альтернатив, это могут быть и бинарные деревья и т.д.) "зажимают" в уже обученных ИИ, что бы сильно не гуляли от вновь поступающей информации, но в определённых пределах позволяют меняться при дообучении. И, кстати, это - отдельная научная проблема: как не "пережать", но при этом что бы вновь поступающая инфа не перекосила сильно условные вероятности (если речь о марковских-like сетках) или гиперплоскости (если речь о классификаторах/распознователях). Как обычно, пока это отдаётся на опыт и чутьё программера.

По выделенному: эти "альтернативы" существовали задолго до "нейронок". И, в конечном итоге, там тоже осуществляется подгонка весов.
"Веса" могут все время менятся при парадигмах, типа reinforced learning.
По поводу "перекоса" - эта проблема известна давно, впервые сформулирована Тихоновым и хорошо изучена в теории регуляризации.

KiDr 12-11-2025 11:48

Цитата:
Сообщение от Klivsi
А что мешает дообучению в процессе? Уева туча алгоримтов существует - научное сообщество же не просто так тучи наукоёмкой макулатуры генерит каждый день :lol:

Просто обычно веса (кстати, не обязательно веса, нейронкам есть уже куча альтернатив, это могут быть и бинарные деревья и т.д.) "зажимают" в уже обученных ИИ, что бы сильно не гуляли от вновь поступающей информации, но в определённых пределах позволяют меняться при дообучении. И, кстати, это - отдельная научная проблема: как не "пережать", но при этом что бы вновь поступающая инфа не перекосила сильно условные вероятности (если речь о марковских-like сетках) или гиперплоскости (если речь о классификаторах/распознователях). Как обычно, пока это отдаётся на опыт и чутьё программера.

Дообучение никто не отменял энто да, и способов дофигищя, от fine-tuning’а до всяких там meta learning штук. Но я немного про другое. не просто про дообучение, а про новый тип пластичности, где сама модель будет принимать решение как реагировать и подстраиваться.
Сейчас ведь всё как? модель натренилии дальше она работает со статичными весами да, можно дообучить, можно прикрутить контекст, можно внешнюю память. Но по сути это косметика. Она не меняет себя под задачу, а только реагирует.
а я представляю чтото типа системы где есть вторая, динамическая матрица, что-то вроде быстрой рабочей памяти, которая на лету подстраивает основную структуру весов под конкретный контекст. Не просто файн-тунинг, а постоянное внутреннее самообновление. Типа модель понимает, в каком мире она сейчас мысленно находится, и под это перестраивает собственные нейронные связи.
Вот тогда, мне кажется, и начнётся самое интересное когда ИИ сможет не просто генерить текст или код, а реально думать и даже мечтать. когда изменения в нём будут не следствием обучения, а естественным процессом. ну или чтото типа этого.

Klivsi 12-11-2025 18:59

Цитата:
Сообщение от KiDr
а я представляю чтото типа системы где есть вторая, динамическая матрица, что-то вроде быстрой рабочей памяти, которая на лету подстраивает основную структуру весов под конкретный контекст. Не просто файн-тунинг, а постоянное внутреннее самообновление. Типа модель понимает, в каком мире она сейчас мысленно находится, и под это перестраивает собственные нейронные связи.
Вот тогда, мне кажется, и начнётся самое интересное когда ИИ сможет не просто генерить текст или код, а реально думать и даже мечтать. когда изменения в нём будут не следствием обучения, а естественным процессом. ну или чтото типа этого.
Не очень вас понял.

ИИ - это железяка. Она ничего не "понимает", она, на самом деле, никакого родства не имеет к тому, что у нас реально в мозгу происходит. Вы можете пару глав прочитать из знаменитой книги "Мозг, разум, поведение", что бы понять, что ИИ - это просто навороченная игрушка, базирующаяся на идеях из 70х годов по адаптивным системам (Репин & Тартаковский, Вапник & Червоненкис и др.) Она просто довольно примитивными методами либо оценивает условные вероятности, либо строит разделяющие гиперплоскости.

У вас стоит задача грамотно добавлять в систему новые данные. В случае когда статистики теоретически известны, эта задача была строго решена ещё 60 лет назад Стратоновичем, Коломгоровым и Калманом. Частный случай ф.Калмана (не к ночи будь помянут!) альфа-(бета)-фильтр, в к-ром вес нового измерения просто выковыривают из носа и прибивают гвоздями (так, кстати, и в простеньких ИИ делают). Вам надо решить с каким весом в текущее состоянии ввести предыдущее, а с каким - новые вводные.

В ИИ статистики не известны (иначе б нафиг они нужны бы были?), поэтому те же сетки параллельно (при дообучении) численно решают задачу оптимального "долива" новых знаний. Но их вес получается мал именно исходя, что бы система не пошла вразнос. Ничего другого человечество не придумало и при численной оптимизации (сиречь "обучении") тоже самое получается.

А разнос - потому что у вас получается неявный рекурсивный фильтр. Он нелинейный, но смысл тот же: если вы начнёте в него слишком резво новую инфу вводить, он может типа даже самовозбудится и начать нести пургу а-ля HAL-9000 из "Космической одиссеи", когда Боуман начал из него платки вытаскивать :)

Поэтому, я не очень понимаю как можно на лету перестроить архитектуру. Но если у вас есть конкретные технические идеи - было бы интересно послушать.

SergeyD 12-11-2025 19:25

Цитата:
Сообщение от KiDr
ой да лана, да лучше тебя они могут генерировать код, вопрос в том что у них нет такого контекста в голове как у тебя. да и рассуждать они могут довольно посредственно ещё, только увеличивая окно контекста. Матрицы то статичные. Вот когда сами матрицы будут динамичными, будут подстраиваться под контент. Когда модели станут пластичными, вот тогда самая веселуха и начнется:)

быстрее может да. но не лучше. и да именно в том смысле что его контекст ограничен репозиторием или пачкой репозиториев. и дальше этого он не видит но ты ж знаешь что еще куча внешних связей есть бизнес требований историй проекта там всяких провалов траблшутингов прочего опыта который у тебя в голове есть а у агента нет.

KiDr 12-11-2025 19:57

Цитата:
Сообщение от Klivsi
Не очень вас понял.

ИИ - это железяка. Она ничего не "понимает", она, на самом деле, никакого родства не имеет к тому, что у нас реально в мозгу происходит. Вы можете пару глав прочитать из знаменитой книги "Мозг, разум, поведение", что бы понять, что ИИ - это просто навороченная игрушка, базирующаяся на идеях из 70х годов по адаптивным системам (Репин & Тартаковский, Вапник & Червоненкис и др.) Она просто довольно примитивными методами либо оценивает условные вероятности, либо строит разделяющие гиперплоскости.

У вас стоит задача грамотно добавлять в систему новые данные. В случае когда статистики теоретически известны, эта задача была строго решена ещё 60 лет назад Стратоновичем, Коломгоровым и Калманом. Частный случай ф.Калмана (не к ночи будь помянут!) альфа-(бета)-фильтр, в к-ром вес нового измерения просто выковыривают из носа и прибивают гвоздями (так, кстати, и в простеньких ИИ делают). Вам надо решить с каким весом в текущее состоянии ввести предыдущее, а с каким - новые вводные.

В ИИ статистики не известны (иначе б нафиг они нужны бы были?), поэтому те же сетки параллельно (при дообучении) численно решают задачу оптимального "долива" новых знаний. Но их вес получается мал именно исходя, что бы система не пошла вразнос. Ничего другого человечество не придумало и при численной оптимизации (сиречь "обучении") тоже самое получается.

А разнос - потому что у вас получается неявный рекурсивный фильтр. Он нелинейный, но смысл тот же: если вы начнёте в него слишком резво новую инфу вводить, он может типа даже самовозбудится и начать нести пургу а-ля HAL-9000 из "Космической одиссеи", когда Боуман начал из него платки вытаскивать :)

Поэтому, я не очень понимаю как можно на лету перестроить архитектуру. Но если у вас есть конкретные технические идеи - было бы интересно послушать.

Ну мы то тоже в принципе просто набор какойто фигни, не понятно из чего состоящей. Да и кстати совершенно не понятно до конца что у нас в голове происходит, в принципе тоже может быть и там структуризация происходить статистически. А модели уже сейчас становятся на столько большими что просчитать их работу в принципе уже не возможно. А дальше будет только лучше, если конечно не будет хуже:)

Кстати насчёт пурги, я недавно для интереса сделал маленькую модельку с 0ля и треннировал её в основном на произведениях Стругацких, Лема и Азимова. Так как делал это на лаптопе особо натреннировать ее не удалось, эпох занимал около полтора часа. Но нести забавный бред она начала всетаки и с высокой температурой выдавала иногда забавные вещи.

Ничего конкретного конечно я не могу предложить, у меня нет глубоких познаний в этой сфере только интерес :)

Mikky 13-11-2025 09:22

Цитата:
Сообщение от KiDr
Ну мы то тоже в принципе просто набор какойто фигни, не понятно из чего состоящей. ..


Тут в общем то "простой" философский вопрос - базируется ли человеческое мышление на математике и ее формулах?
(Не важно какой сложности, возможно еще даже не изученной.)

Если человеческое мышление базируется математике,
то теоретически можно создать ИИ таким же способом как сейчс пытаются сделать,
а именно основвываясь на математических знаниях.

А вот если человеческое мышление не базируется на математике, то ни фига не получится.
Будет просто подражающяя человеку игрушка-иструмент для решения каких либо прикладных задачь,
сложность зависит от условий.


ЗЫ. Человечество порогноз погоды то точный сделать не может, или что нибудь серьезное посчитать
в экономике, цену, например, нефти через месяц. А уже типа ИИ сделало :lol:

ЗЫЗЫ Хотя , конечно, данная тема уже совсем далека от заявленной про работу в IT :agree:

lexer 13-11-2025 10:01

Цитата:
Сообщение от Mikky
Тут в общем то "простой" философский вопрос - базируется ли человеческое мышление на математике и ее формулах?
(Не важно какой сложности, возможно еще даже не изученной.)

Если человеческое мышление базируется математике,
то теоретически можно создать ИИ таким же способом как сейчс пытаются сделать,
а именно основвываясь на математических знаниях.

А вот если человеческое мышление не базируется на математике, то ни фига не получится.
Будет просто подражающяя человеку игрушка-иструмент для решения каких либо прикладных задачь,
сложность зависит от условий.


ЗЫ. Человечество порогноз погоды то точный сделать не может, или что нибудь серьезное посчитать
в экономике, цену, например, нефти через месяц. А уже типа ИИ сделало :lol:

ЗЫЗЫ Хотя , конечно, данная тема уже совсем далека от заявленной про работу в IT :agree:

Относительно выделенного: не может и никогда не сможет по вполне объективным причинам. Моя диссертация была посвещена нелинейной фильтрации в хаотических системах. Системы нелинейных дифференциальных уравнений (часто еще и стохастических в современных моделях), которые находятся в основании любой системы численного прогнозирования погоды представляют собой как раз такие хаотические системы. Если объяснять простыми словами, то они представляют собой плохо обусловленные задачи, для которых малые колебания начальных условий приводят к большим колебаниям в решениях. Поскольку начальные условия определяются из наблюдений, а те, в свою очередь, всегда содержат ошибку измерений (и всегда будут ее содержать, здесь до принципа неопределенности Гейзенберга можно добраться, разбираясь, почему принципиально невозможно снять "абсолютно точные" измерения) прогноз погоды будет всегда отклоняться от истинного тем сильнее, чем длиньше временной интервал предсказания.
Поэтому системы численного предсказания погоды постоянно корректируются наблюдениями и финальная оценка предсказания делается с помощью нелинейного статистического фильтра (как правило, аппроксимации фильтра Калмана)

P.S. Как в прошлом достаточно узкий специалист по нелинейной фильтрации замечу, что то, как работают LLM не имеет к этому отношения чуть более, чем совсем. Сейчас в интернете много хорошей информации по нелинейным трансформерам. Там есть все, что нужно, если интересно разобраться как, почему и в каких пределах это работает

Mikky 13-11-2025 11:30

Цитата:
Сообщение от lexer
Относительно выделенного: не может и никогда не сможет по вполне объективным причинам. Моя диссертация была посвещена нелинейной фильтрации в хаотических системах. Системы нелинейных дифференциальных уравнений (часто еще и стохастических в современных моделях), которые находятся в основании любой системы численного прогнозирования погоды представляют собой как раз такие хаотические системы.
...
P.S. Как в прошлом достаточно узкий специалист по нелинейной фильтрации замечу, что то, как работают LLM не имеет к этому отношения чуть более, чем совсем. Сейчас в интернете много хорошей информации по нелинейным трансформерам. Там есть все, что нужно, если интересно разобраться как, почему и в каких пределах это работает


Дык я про это и написал.
Сейчас люди использут математику для прогнозирования и рассчетов (LLM, нелинейные дифференциальные уравнения и прочее.)

Вот и вопрос - все ли процессы возможно описать математикой?
(не вдаваясь в уровень сложности.)

И если не все, то какой использовать инструмент для изучения и описания?

К сожалению, кроме математики у нас пока ни чего другого нет.

ЗЫ И тогда относительно выделенного, я бы сформулировал так:
"не может и никогда не сможет базируясь на математической модели по вполне объективным причинам".

Suhov 13-11-2025 11:39

Цитата:
Сообщение от Mikky
Тут в общем то "простой" философский вопрос - базируется ли человеческое мышление на математике и ее формулах?


Согласно современной науке человеческий мозг - это коллекция нейронов, и когнитивные функции мозга (то есть то самое мышление) определяется взаимодействием между этими самыми нейронами посредством прохождения "сигнала" (импульсов) по ним. Сила этих импульсов зависит от множества факторов, физически они являются прохождением нейромедиаторов (определённых гормонов) между стенками соседних нейронов. Это если упрощённо.

Нейронные сети, применяемые в ИИ, весьма схоже работают - именно это даёт нам основания говорить о том, что в ИИ вторая И имеет право на жизнь. Долго ли мы уже разрабатываем ИИ? Ну, меньше 100 лет точно. Долго ли совершенствовался мозг живых существ? Ну, не меньше 500 000 000 лет. Разница всего в 5 000 000 раз по срокам. Имеет ли смысл сравнивать - очевидно, нет. Имеет ли смысл совершенстовать и пользоваться результатами, если они полезны - очевидно, да.

Mikky 13-11-2025 11:46

Цитата:
Сообщение от Suhov
Согласно современной науке ....


Это вот ключевая фраза.
Да , только "согласно современной науке" .

А можем ли мы опираться на "современною науку" в описании работы собственного мозга и мышления?
Как я понимаю, этот вопрос до сих пор не решен.

Suhov 13-11-2025 12:01

Цитата:
Сообщение от Mikky
Это вот ключевая фраза.
Да , только "согласно современной науке" .

А можем ли мы опираться на "современною науку" в описании работы собственного мозга и мышления?
Как я понимаю, этот вопрос до сих пор не решен.


Я не вижу проблемы в том, чтобы опираться на достижения современной науки, ибо она применяет доказательный подход, а также критические оценки оппонентов на разных уровнях прохождения гипотезы. Всё вместе это современный научный подход.

Mikky 13-11-2025 12:24

Цитата:
Сообщение от Suhov
Я не вижу проблемы в том, чтобы опираться на достижения современной науки, ибо она применяет доказательный подход, а также критические оценки оппонентов на разных уровнях прохождения гипотезы. Всё вместе это современный научный подход.


Я бы с Вами согласился, если бы не то, что наука сама себя постояннно опровергает довольно регулярно.
И много из того что было - "научно подтвержденно", оказывается совсем не так.

Но это уже совсем другая истроия. :shuffle:

И вопрос - все ли природные процессы можно описать математикой? - то же до сих пор открыт.

Suhov 13-11-2025 12:39

Цитата:
Сообщение от Mikky
Я бы с Вами согласился, если бы не то, что наука сама себя постояннно опровергает довольно регулярно.
И много из того что было - "научно подтвержденно", оказывается совсем не так.

Но это уже совсем другая истроия. :shuffle:

И вопрос - все ли природные процессы можно описать математикой? - то же до сих пор открыт.


Возможно вы имеете ввиду те разделы науки, которые опираются главным образом на теории, например квантовую механику. Поймают какой-нибудь новый бозон, который никто не предсказывал - и тут же придумают теорию, которая его объясняет.

Механизмы работы человеческого мозга изучены довольно детально, не думаю, что именно по механизмам нас ждут какие-то открытия, опровергающие современные представления о том, как мозг функционирует, в частности из чего складываются его когнитивные функции. Физиология довольно разработанная область науки. Другое дело взаимодействие областей мозга, памяти, инстинктов, эмоций, креативности, фантазий, изобретений и тд - вот там да, открытий стоит ждать. И эти открытия окажут влияние на ИИ, приблизив модели к реальному мозгу ещё ближе.

Mikky 13-11-2025 13:02

Цитата:
Сообщение от Suhov
Возможно вы имеете ввиду те разделы науки, которые опираются главным образом на теории, например квантовую механику. Поймают какой-нибудь новый бозон, который никто не предсказывал - и тут же придумают теорию, которая его объясняет.

Механизмы работы человеческого мозга изучены довольно детально, не думаю, что именно по механизмам нас ждут какие-то открытия, опровергающие современные представления о том, как мозг функционирует, в частности из чего складываются его когнитивные функции. Физиология довольно разработанная область науки. Другое дело взаимодействие областей мозга, памяти, инстинктов, эмоций, креативности, фантазий, изобретений и тд - вот там да, открытий стоит ждать. И эти открытия окажут влияние на ИИ, приблизив модели к реальному мозгу ещё ближе.


Я не являюсь специалистом, но вот например интервью Анохина К. В.
Вот ссылка на вики - https://ru.wikipedia.org/wiki/%D0%9...%B2%D0%B8%D1%87

Вот ссылка на интервью (может конечно фейк, но не думаю):
https://naked-science.ru/article/in...henye-do-sih-po

Вот пара цитат :
Цитата:
...
[И] - ... А когда слово «прорыв» произносят ученые, что имеется в виду? На что положено столько усилий? За что идет гонка? Что мы должны понять?
[А] — Принципы. Всё просто: мы не знаем, как работает мозг, мы должны это узнать.
[И]— Ну как же так?!
[А] — Вот так. Как сказал один из самых выдающихся современных нейроученых Антонио Дамасио «Идея о том, что у нас есть четкое представление о том, что такое мозг и что он делает — чистый вздор».
[И]— А в чём главная загадка?
[А] — Как рождается мысль.
...
[А] — Да, известная история, когда полтора года назад на съезде Ассоциации научных исследований сознания в Нью-Йорке один из известных исследователей нервных основ сознания Криштоф Кох проиграл спор на ящик вина другому такому же известному философу сознания Дэвиду Чалмерсу. На одной из первых конференций этой ассоциации Кох он заявил Чалмерсу: «Через 25 лет мы будем знать нервные корреляты сознания». И вот, в 2023 году он вынужден был признать, что нет, не знаем.
[И] — А что сейчас является основными претендентами на это звание?
[А] - Одна теория —теория нейронного глобального рабочего пространства — развивается группой ученых, среди которых французские исследователи Станислас Деан и Жан-Пьер Шанже, утверждающих, что сознание связано с определенными операциями в передних отделах коры головного мозга. А другая, не менее известная, разработанная американским нейроученым итальянского происхождения Джулио Тонони, называется теорией интегрированной информации. Она предсказывает, что процессы сознания протекают в задних областях мозга, прежде всего в теменной коре.


Там еще много чего интересного .....

KiDr 13-11-2025 13:18

Цитата:
Сообщение от Suhov
Я не вижу проблемы в том, чтобы опираться на достижения современной науки, ибо она применяет доказательный подход, а также критические оценки оппонентов на разных уровнях прохождения гипотезы. Всё вместе это современный научный подход.

Ну проблема в том что современная наука пока не может обьяснить что под этим всем стоит. Тоесть она наблюдает некие процессы и описывает их некими шаблонами, формулами. Но основ то мы не видем. Ну можем предположить что все вокруг это возмущения каких-то полей. Но это опять же предположение. Мое мнение что мы до бесконечности долго можем описывать то что видим в этом мире, но заглянуть за изнанку в принципе не можем. Влияет ли это какие-то на нас? не думаю. Но и опятьже никто не может определённо сказать как работает например мозг не зная из чего он в принципе состоит. Тоесть можно описать что он работает вот так вот, но это будет скорее свего описания шаблона.

lexer 13-11-2025 13:42

Цитата:
Сообщение от KiDr
Ну проблема в том что современная наука пока не может обьяснить что под этим всем стоит. Тоесть она наблюдает некие процессы и описывает их некими шаблонами, формулами. Но основ то мы не видем. Ну можем предположить что все вокруг это возмущения каких-то полей. Но это опять же предположение. Мое мнение что мы до бесконечности долго можем описывать то что видим в этом мире, но заглянуть за изнанку в принципе не можем. Влияет ли это какие-то на нас? не думаю. Но и опятьже никто не может определённо сказать как работает например мозг не зная из чего он в принципе состоит. Тоесть можно описать что он работает вот так вот, но это будет скорее свего описания шаблона.

Я открою страшный секрет: "современная наука" пока что не в сотоянии теоретически объяснить даже то, почему те же LLM в принципе работают (и до каких пределов). Там нет законченой математической теории, т.е. это чисто феноменальные модели, которые работают потому, что "ну, в принципе, архитектура имеет смысл и, наверное, что-то описывает".
Если же подходить к сути обсуждаемого в последних нескольких постах, то фактически речь идет о том, дает ли современное научное знание исчерпывающую картину той части окружающего мира, которую оно описывает. И, в частности, является ли математическое описание "истинным" (т.е. исчерпывающим).
Мое мнение состоит в том, что математические теории сами по себе - абсолютно истинны в том смысле, что они очень ясно описывают собственную систему аксиом и способы построения конструкций, которые считаются "правильными". Другое дело, что к описываемой системе они имеют отношение лишь в той степени, в которой это отношение предусмотрел тот, кто описывал. Проще говоря, математика - истина в последней инстации, но то, что она при этом описывает имеет отношение к реальному миру постокльку-поскольку

Suhov 13-11-2025 13:42

Цитата:
Сообщение от KiDr
Ну проблема в том что современная наука пока не может обьяснить что под этим всем стоит. Тоесть она наблюдает некие процессы и описывает их некими шаблонами, формулами. Но основ то мы не видем. Ну можем предположить что все вокруг это возмущения каких-то полей. Но это опять же предположение. Мое мнение что мы до бесконечности долго можем описывать то что видим в этом мире, но заглянуть за изнанку в принципе не можем. Влияет ли это какие-то на нас? не думаю. Но и опятьже никто не может определённо сказать как работает например мозг не зная из чего он в принципе состоит. Тоесть можно описать что он работает вот так вот, но это будет скорее свего описания шаблона.


Под этим ничего не стоит. Всё, что есть в человеческом организме разложено по молекулам и известно. Нейронные импульсы передаются нейромедиаторами. Импульс возникает после того, как возбуждается определённая область мозга. Возбуждается эта область под воздействием других импульсов, поступающих из других областей мозга. Нервная система служит триггером возбуждений, но не только она. Не нужно мистику примешивать сюда. Много чего ещё следует изучить, не спорю, но нет ничего мистического в том, как работает мозг - это химическая нейросеть, где вместо весов нейронов - некоторое количество гормонов, а вместо соединений нейронов - перетекание этих гормонов от нейрона к нейрону посредством взаимодействия их аксонов. Входами мозговой нейросети служат импульсы от нервной системы, например от сетчатки глаза, или от кожных нервных окончаний.

Suhov 13-11-2025 14:00

Цитата:
Сообщение от Suhov
Под этим ничего не стоит. Всё, что есть в человеческом организме разложено по молекулам и известно. Нейронные импульсы передаются нейромедиаторами. Импульс возникает после того, как возбуждается определённая область мозга. Возбуждается эта область под воздействием других импульсов, поступающих из других областей мозга. Нервная система служит триггером возбуждений, но не только она. Не нужно мистику примешивать сюда. Много чего ещё следует изучить, не спорю, но нет ничего мистического в том, как работает мозг - это химическая нейросеть, где вместо весов нейронов - некоторое количество гормонов, а вместо соединений нейронов - перетекание этих гормонов от нейрона к нейрону посредством взаимодействия их аксонов. Входами мозговой нейросети служат импульсы от нервной системы, например от сетчатки глаза, или от кожных нервных окончаний.


Если проводить аналогию с нейросетями, применяемыми в ИИ, то науке известны принципы возникновения и передачи сигналов в мозге, известно, что связано всё нейронами, и передаётся по аксонам, но науке неизвестна топология этих связей - другими словами неизвестна та самая модель, которая у нас в голове (чат гпт, джеминай, грок или китайская, как её там? а может даже какая-то совсем другая) - именно это и будет предметом будущих открытий и их следствием будет улучшение моделей ИИ, приближение их к естественному мышлению. как связаны отделы мозга между собой, за что именно они отвечают, что такое память -какой отдел отвечает за долговременную память а какой за кратковременную и как память связана с другими отделами и тд.

KiDr 13-11-2025 14:07

Цитата:
Сообщение от lexer
Я открою страшный секрет: "современная наука" пока что не в сотоянии теоретически объяснить даже то, почему те же LLM в принципе работают (и до каких пределов). Там нет законченой математической теории, т.е. это чисто феноменальные модели, которые работают потому, что "ну, в принципе, архитектура имеет смысл и, наверное, что-то описывает".
Если же подходить к сути обсуждаемого в последних нескольких постах, то фактически речь идет о том, дает ли современное научное знание исчерпывающую картину той части окружающего мира, которую оно описывает. И, в частности, является ли математическое описание "истинным" (т.е. исчерпывающим).
Мое мнение состоит в том, что математические теории сами по себе - абсолютно истинны в том смысле, что они очень ясно описывают собственную систему аксиом и способы построения конструкций, которые считаются "правильными". Другое дело, что к описываемой системе они имеют отношение лишь в той степени, в которой это отношение предусмотрел тот, кто описывал. Проще говоря, математика - истина в последней инстации, но то, что она при этом описывает имеет отношение к реальному миру постокльку-поскольку

Совершенно не секрет для меня:)

KiDr 13-11-2025 14:10

Цитата:
Сообщение от Suhov
Под этим ничего не стоит. Всё, что есть в человеческом организме разложено по молекулам и известно. Нейронные импульсы передаются нейромедиаторами. Импульс возникает после того, как возбуждается определённая область мозга. Возбуждается эта область под воздействием других импульсов, поступающих из других областей мозга. Нервная система служит триггером возбуждений, но не только она. Не нужно мистику примешивать сюда. Много чего ещё следует изучить, не спорю, но нет ничего мистического в том, как работает мозг - это химическая нейросеть, где вместо весов нейронов - некоторое количество гормонов, а вместо соединений нейронов - перетекание этих гормонов от нейрона к нейрону посредством взаимодействия их аксонов. Входами мозговой нейросети служат импульсы от нервной системы, например от сетчатки глаза, или от кожных нервных окончаний.

Это опять не о чем мой друг. Самой основы нет. Мы не знаем что такое энергия, это сейчас только конструкция. А по этому мы можем только предпологать как все работает на самом деле

KiDr 13-11-2025 14:12

Цитата:
Сообщение от Suhov
Если проводить аналогию с нейросетями, применяемыми в ИИ, то науке известны принципы возникновения и передачи сигналов в мозге, известно, что связано всё нейронами, и передаётся по аксонам, но науке неизвестна топология этих связей - другими словами неизвестна та самая модель, которая у нас в голове (чат гпт, джеминай, грок или китайская, как её там? а может даже какая-то совсем другая) - именно это и будет предметом будущих открытий и их следствием будет улучшение моделей ИИ, приближение их к естественному мышлению. как связаны отделы мозга между собой, за что именно они отвечают, что такое память -какой отдел отвечает за долговременную память а какой за кратковременную и как память связана с другими отделами и тд.

Ты обьясняеш какие-то очень уже всем понятные вещи:)

Suhov 13-11-2025 14:17

Цитата:
Сообщение от KiDr
Это опять не о чем мой друг. Самой основы нет. Мы не знаем что такое энергия, это сейчас только конструкция. А по этому мы можем только предпологать как все работает на самом деле


Это нормально, что мы не знаем всего. Но мы что-то знаем, и имеем математические модели, описывающие это знание. Поступят новые данные - возможно изменятся модели. Так наука прогрессирует, это нормально, и это улучшает жизнь людей. От того, что мы не знаем всего - ничего не встало и прогресс не замер на месте. Современные ИИ модели очень полезны. От того, что мы не знаем, что такое энергия на самом её низшем уровне - не мешает этой энергии питать ЦОДы по всему миру, и поддерживать нейросети в рабочем состоянии, при этом принося огромную пользу цивилизации.

Познание - рукурсивный процесс. Чем больше ты узнаёшь - тем больше ты понимаешь, как мало ты знаешь. Чтобы понять рекурсию - нужно понять рекурсию.

Suhov 13-11-2025 14:21

Цитата:
Сообщение от KiDr
Ты обьясняеш какие-то очень уже всем понятные вещи:)


Ничего страшного, повторение - мать учения, да и не всем понятно, смотрю, некоторые продолжают во всякие мистические теории "нам не всё известно" верить, не доверять и недооценивать мощь того, что уже есть. ну, не хотят, пусть не хотят. Эти разговоры про ИИ тут на форуме регулярно, отмотай хотя бы на 10 лет назад - те же люди твердили, что ИИ - пшик и блеф, а сейчас он рак выявляет лучше всяких докторов.

KiDr 13-11-2025 14:26

Цитата:
Сообщение от Suhov
Это нормально, что мы не знаем всего. Но мы что-то знаем, и имеем математические модели, описывающие это знание. Поступят новые данные - возможно изменятся модели. Так наука прогрессирует, это нормально, и это улучшает жизнь людей. От того, что мы не знаем всего - ничего не встало и прогресс не замер на месте. Современные ИИ модели очень полезны. От того, что мы не знаем, что такое энергия на самом её низшем уровне - не мешает этой энергии питать ЦОДы по всему миру, и поддерживать нейросети в рабочем состоянии, при этом принося огромную пользу цивилизации.

Знание - рукурсивный процесс. Чем больше ты узнаёшь - тем больше ты понимаешь, как мало ты знаешь. Чтобы понять рекурсию - нужно понять рекурсию.

Да только рекурсия хороша когда используется для довольно малого количества итераций, ибо давольно быстро доберешся до max depth, а я боюсь мы все не сможем понять ибо итераций нужно бесконечное множество:) а так то да ты можешь сказать тебе общего понимания не надо чтобы цивилизация развивалась. Нам в принципе вообще не важно развивается ли цивилизация, мы тут очень временно:)

Suhov 13-11-2025 14:29

Цитата:
Сообщение от KiDr
Нам в принципе вообще не важно развивается ли цивилизация, мы тут очень временно:)


Ну, если только при нашей жизни не научатся выращивать гуманоидов и пересаживать им наш старческий мозг.

Klivsi 13-11-2025 14:30

Цитата:
Сообщение от KiDr
Ничего конкретного конечно я не могу предложить, у меня нет глубоких познаний в этой сфере только интерес :)
А по части новых идей - интерес подчас важнее глубоких познаний.

Это, знаете, как в литературе считается, что писатель не должен быть слишком начитанным, ибо у него может образоваться комплекс "всё уже написано до нас". Не гоже изобретать велосипед, но и слишком глубоко рыть тоже часто плохо для новых идей :jiihaa:

Так что, генерите, не стесняйтесь :)

Suhov 13-11-2025 14:49

Цитата:
Сообщение от Mikky
И вопрос - все ли природные процессы можно описать математикой? - то же до сих пор открыт.


Математика - это лишь инструмент для описания законов. Будь у людей на руках не 10 пальцев, а 12, то и система счисления имела бы не десятичную основу, и формулы выглядели бы иначе. Но математика - это лишь язык описания. Не вижу причины по которой нельзя было бы описать тот или иной процесс, явление. Важнее не язык, а законы, которые описывают формулы. Не всегда описание будет универсальным - какие-то явления опишет, а какие-то нет, как нет, например, единых законов в физике - в квантовой физике свои законы, в классической свои.

KiDr 13-11-2025 15:00

Цитата:
Сообщение от Suhov
Ну, если только при нашей жизни не научатся выращивать гуманоидов и пересаживать им наш старческий мозг.

Ну это если вдруг все волновые функции не перестанут разом схлопываться:)

KiDr 13-11-2025 15:04

Цитата:
Сообщение от Klivsi
А по части новых идей - интерес подчас важнее глубоких познаний.

Это, знаете, как в литературе считается, что писатель не должен быть слишком начитанным, ибо у него может образоваться комплекс "всё уже написано до нас". Не гоже изобретать велосипед, но и слишком глубоко рыть тоже часто плохо для новых идей :jiihaa:

Так что, генерите, не стесняйтесь :)

Интересно конечно но уж очень уж много ресурсов требуют эксперименты:) у меня лаптоп не вытягивает:)

lexer 13-11-2025 15:23

Цитата:
Сообщение от Suhov
Ничего страшного, повторение - мать учения, да и не всем понятно, смотрю, некоторые продолжают во всякие мистические теории "нам не всё известно" верить, не доверять и недооценивать мощь того, что уже есть. ну, не хотят, пусть не хотят. Эти разговоры про ИИ тут на форуме регулярно, отмотай хотя бы на 10 лет назад - те же люди твердили, что ИИ - пшик и блеф, а сейчас он рак выявляет лучше всяких докторов.

До сих пор - пшик и блеф, увы. И рак он лучше докторов не выявляет. Основаня проблема в том (как и 10 лет назад), что это - black box и никому неизвестно, в каких пределах на выдаваемые им результаты можно однозначно полагаться.
В нынешнем исполнении LLM модели несут цивилизации, как минимум, не мЕньшую угрозу, чем приносимая ими же иногда польза. Если что, это не означает, что их не следует изучать и совершенствовать.

Mikky 13-11-2025 15:28

Цитата:
Сообщение от Suhov
Математика - это лишь инструмент для описания законов. Будь у людей на руках не 10 пальцев, а 12, то и система счисления имела бы не десятичную основу, и формулы выглядели бы иначе. Но математика - это лишь язык описания. Не вижу причины по которой нельзя было бы описать тот или иной процесс, явление. Важнее не язык, а законы, которые описывают формулы. Не всегда описание будет универсальным - какие-то явления опишет, а какие-то нет, как нет, например, единых законов в физике - в квантовой физике свои законы, в классической свои.


Это фундаментальная ошибка.
Математика - это наука, и не важно сколько у вас пальцев на руке.
Вы путаете "математику" - как науку , и записи в математике как некие символы.

Наука потому как часто сначала идет математематическое доказательство, а уже потом, иногда через много лет,
происходит физическое или еще какое подтверждение.

Вот и википедия так же считает, что математика
Цитата:
В более современном понимании, это наука об отношениях между объектами, о которых ничего не известно, кроме описывающих их некоторых свойств

Suhov 13-11-2025 15:36

Цитата:
Сообщение от Mikky
Это фундаментальная ошибка.
Математика - это наука, и не важно сколько у вас пальцев на руке.
Вы путаете "математику" - как науку , и записи в математике как некие символы.

Наука потому как часто сначала идет математематическое доказательство, а уже потом, иногда через много лет,
происходит физическое или еще какое подтверждение.

Вот и википедия так же считает, что математика


Продолжу придерживаться своей точки зрения, что математика - это язык описания законов, теорий. Для построения теории необходимо выбрать некоторые постулаты, например, что параллельные прямые пересекаются. И тогда получим геометрию Лобачевского, которая будет описана математическими уравнениями, без единого противоречия. Если же в качестве постулата выбрать то, что параллельные прямые не пересекаются, то получим привычную нам Евклидову геометрию, и она так же будет описана набором уравнений, то есть математикой.

Suhov 13-11-2025 15:57

Цитата:
Сообщение от lexer
До сих пор - пшик и блеф, увы. И рак он лучше докторов не выявляет. Основаня проблема в том (как и 10 лет назад), что это - black box и никому неизвестно, в каких пределах на выдаваемые им результаты можно однозначно полагаться.
В нынешнем исполнении LLM модели несут цивилизации, как минимум, не мЕньшую угрозу, чем приносимая ими же иногда польза. Если что, это не означает, что их не следует изучать и совершенствовать.


Не соглашусь с тем, что ИИ не выявляет рак ручше докторов , ибо проведено довольно много сравнительных тестов, каждый может поискать, и некоторые модели подтверждают своё неоспоримое превосходство в диагностике над человеком.

Соглашусь с тем, что нейросети это black-box не имеющие строгого мат описания. Поэтому склоняюсь к тому, что будущее за гибридными моделями, то есть за сочетанием ИИ моделей с моделями со строгими правилами, логикой, ограничениями. Грубо говоря, классический софт будет иметь в себе некоторый советующий/предсказывающий и тд. компонент, основанный на нейросетевой модели, и далее результат работы нейросети будет обрабатываться классическим алгоритмом. Таких пересечений ИИ с чёткой детерминистской логикой может быть сколь угодно много, для построения модели с предсказуемыми результатами, во избежание той самой проблемы неопределённости результата.

Klivsi 13-11-2025 16:02

Цитата:
Сообщение от Mikky
Там еще много чего интересного .....
Интересного много, но результатов не будет.

Поясню. Все великие открытия, что бы ли до сих пор, они либо там, где линейщина, либо простейшие частные случае там, где НЕлинейщина. Основа нашего бытия - уранвнения Шрёдингера решаются только в простейших случаях (электрон налетел на небесную ось там, атом водорода имени Бора и т.д.). Есть ещё отдельные интересные, но очень частные решения (предельные циклы, солитоны и т.д.).

Но природа "решает" именно нелинейные задачки, она живёт в этом базисе. "Решает", по-сути, на аналоговых компах (были такие в 60е, молодёжь может посмотреть в Инете). Причём "железо" таких компов - не электроника (хотя, иногда и она тоже), а молекулы, молекулярный уровень. Мы, хомо сапиенсы, в сути своей - ходячие аналоговые ЭВМ, на к-рых мать-природа ставит постоянно эксперименты, чего-то всё время обсчитывает. Аппаратура не простаивает :lol:

А наработанный человечеством математический аппарат фолит на таких задачах. В каком-нибудь берущемся интеграле или диффуре поменяли 2 на 1,5 и он уже не решается. Поэтому наука бродит вокруг тех решений, к-ые выражаются в квадратурах как тот чувак, что искал под фонарём, а не там, где надо.

Единственная надежда - на численные решения, частным (но мощным) случаем к-рых и является ИИ. Но проблема в том, что: а) численные решения не дают всей картины (за деревьями леса не видно), где пределы и где глобальный оптимум - никто не в курсе; б) вычислительная нагрузка очень велика.

Но ИИ - пока единственный путь, потому что путь природы - массовые лабораторные эксперименты со случайным поиском мы себе позволить не можем.

SergeyD 13-11-2025 16:14

я тут озадачился со своей машиной. там сзади диски как то сильно ушли и колодки. и говорю с чатгпт и гемини. один и тот же диалог. и он мне такой а ты фото покажи а с того ракурса а с этого а вот так и корчое чатгпт с вердиктом ну я ничего не вижу плохого можно ездить но тыщ через 5 меняй. а гемини по тем же фото с теми же промптами (изначально) ой чел у тебя все пропало да как ты вообще ездишь! завтра колесо отвелится.

вот и думай.. ну реально как гаражные мастера и у каждого свое мнение. )

Klivsi 13-11-2025 16:21

Цитата:
Сообщение от Suhov
Соглашусь с тем, что нейросети это black-box не имеющие строгого мат описания. Поэтому склоняюсь к тому, что будущее за гибридными моделями, то есть за сочетанием ИИ моделей с моделями со строгими правилами, логикой, ограничениями.
Как раз не соглашусь с вами. Это будет метод "слона в посудной лавке".

Это, если взять политический пример (понятный мне и вам), когда в отлаженный механизм 300-летней западной деморкатии вламывается Трамп. ИИ уже обучен, у него нет "отводов" с данными о классификации данной темы и т.д. Если вы хотите, что бы он, например, не выдавал как сделать наркотик или бомбу, вы его должны дообучать его же методами.

А попытка залезть в эту структуру с помощью бинарной логики if - else запросто может привести к неадекватному поведению всей системы. Я выше приводил аналог ИИ из области, где статистики известны, фильтра Калмана.

У него есть недостаток, что если долгое время вход не меняется, у него коэффициент учёта входа падает практически до нуля. И если вдруг на входе происходит какой-то ахтунг, он не может среагировать. И некоторые лезут руками и тупо не дают коэффициенту упасть ниже определённой величины. То самое ваше гибридное решение.

Эту проблему это частично решает, но сразу порождает другие. Но в случае с ф.Калмана вы хоть можете теоретически проанализровать чем придётся расплачиваться. А с ИИ даже такой возможности нет: вы не можете численно прогнать триллионы вариантов, что бы понять, что будет после вашего ручного вмешательства.

Suhov 13-11-2025 16:22

Цитата:
Сообщение от SergeyD
я тут озадачился со своей машиной. там сзади диски как то сильно ушли и колодки. и говорю с чатгпт и гемини. один и тот же диалог. и он мне такой а ты фото покажи а с того ракурса а с этого а вот так и корчое чатгпт с вердиктом ну я ничего не вижу плохого можно ездить но тыщ через 5 меняй. а гемини по тем же фото с теми же промптами (изначально) ой чел у тебя все пропало да как ты вообще ездишь! завтра колесо отвелится.

вот и думай.. ну реально как гаражные мастера и у каждого свое мнение. )


Что доказывает близость моделей ИИ к человеческому разуму! :lol:

Mikky 13-11-2025 16:24

Цитата:
Сообщение от Klivsi
Но природа "решает" именно нелинейные задачки, она живёт в этом базисе. "Решает", по-сути, на аналоговых компах (были такие в 60е, молодёжь может посмотреть в Инете). Причём "железо" таких компов - не электроника (хотя, иногда и она тоже), а молекулы, молекулярный уровень. Мы, хомо сапиенсы, в сути своей - ходячие аналоговые ЭВМ, на к-рых мать-природа ставит постоянно эксперименты, чего-то всё время обсчитывает. Аппаратура не простаивает :lol:


Сам не работал, но застал людей которые работали :)

Свернули тогда активно на цифровые компы с аналоговых, а возможно аналоговые ЭВМ могут быть прорывом,
но кто ж сейчас будет на это денги выделять.
Хотя вот что то типа нейрокомпьютера можно было бы сделать.
:gy:

Suhov 13-11-2025 16:30

Цитата:
Сообщение от Klivsi
Как раз не соглашусь с вами. Это будет метод "слона в посудной лавке".

Это, если взять политический пример (понятный мне и вам), когда в отлаженный механизм 300-летней западной деморкатии вламывается Трамп. ИИ уже обучен, у него нет "отводов" с данными о классификации данной темы и т.д. Если вы хотите, что бы он, например, не выдавал как сделать наркотик или бомбу, вы его должны дообучать его же методами.

А попытка залезть в эту структуру с помощью бинарной логики if - else запросто может привести к неадекватному поведению всей системы. Я выше приводил аналог ИИ из области, где статистики известны, фильтра Калмана.

У него есть недостаток, что если долгое время вход не меняется, у него коэффициент учёта входа падает практически до нуля. И если вдруг на входе происходит какой-то ахтунг, он не может среагировать. И некоторые лезут руками и тупо не дают коэффициенту упасть ниже определённой величины. То самое ваше гибридное решение.

Эту проблему это частично решает, но сразу порождает другие. Но в случае с ф.Калмана вы хоть можете теоретически проанализровать чем придётся расплачиваться. А с ИИ даже такой возможности нет: вы не можете численно прогнать триллионы вариантов, что бы понять, что будет после вашего ручного вмешательства.


не не, никакого влезания внутрь нейронки. нейронки как были чёрными ящиками, пусть такими и остаются. И пусть решают свои узкие задачи, например распознавание образов, например лиц китайцев. говоря о гибридном подходе, я другое имею ввиду, а именно то, что современные сервисы будут сочетать в себе как строгую логику, так и результаты работы нейросетей. Как пример автономные авто. Дорожная ситуация анализируется ИИ с результатами: газ, тормоз, передача вверх, передача вниз, руль влево, руль вправо, руль прямо, задняя передача. И этот результат не передаётся непосредственно механизмам, а передаётся в некоторый блок верификационной логики, чтобы при движении прямо вдруг не включить заднюю передачу, и тд.

Mikky 13-11-2025 16:34

Цитата:
Сообщение от Suhov
Продолжу придерживаться своей точки зрения, что математика - это язык описания законов, теорий. Для построения теории необходимо выбрать некоторые постулаты, например, что параллельные прямые пересекаются. И тогда получим геометрию Лобачевского, которая будет описана математическими уравнениями, без единого противоречия. Если же в качестве постулата выбрать то, что параллельные прямые не пересекаются, то получим привычную нам Евклидову геометрию, и она так же будет описана набором уравнений, то есть математикой.


Пожалуйста, кто ж против, если придерживаться своей точки зрения.

Только непонятно причем тут геометрия Евклида и Лобачевского.
По моему - это как раз и доказывает, что математика наука (не естественная например как физика, но наука)
Определяются условия и доказывается все остальное.

PS Получается , что например теория алгоритмов, теория вероятностей - то же не наука, это вроде часть математики.


Часовой пояс GMT +3, время: 10:33.