![]() |
|
Цитата:
агент видит весь репозиторий проекта. и изменения вносит тоже в нескольких файлах, в зависимости от фичи и особенностей проекта и в десятке файлов может. часто контекст словами довольно сложно передать. просто потому что у тебя в голове уровень знания проекта выше одного репозитория и сухого кода как у ллм. ты еще бизнес-особенности держишь в голове - зависимости с другими компонентами и даже людьми, просто историю развития проекта, не только на основе истории гита и так далее. ллм все это НЕ умеет. но она может держать внутри себя контекст репозитория это правда. опять же с этим надо просто уметь обращаться. и тогда принесет пользу. но менеджерские замашки типа теперь разрабов можно уволить и все будет так же - это мечты. скорее можно менеджеров уволить и заменить их ллмками. Сейчас вижу ллмки научили задавать анводящие вопросы что несоклько упрощает картину. но на галлюцинации остается место и за ними надо следить. Кстати, еще интересно как люди используют этот инструмент не понимая. типа разраб на совсем другом стеке приходит к тебе в репозиторий и начинает фигачить тысячи строк кода новой нужной ему фичи НЕ понимая технологии на которой пишет. потом оно все падает и он не знает чего делать куда бежать кроме вот стектрейс почини а ллм тоже чинит чинит не дочинит потому что тоже не понимает че делать и как правильно. Иногда везет и генерят 1-2 тысячи строк рабочего кода. А потом поверх этого что то надо сделать - и всё. пук среньк. Код неподдерживаемый. А да еще хохма с ревью. один через ллм генерит код. А другой делает через ллм ревью.... и что в итоге? ))) |
Цитата:
Топ мэнахерам на это наложить! Им в уши нассат всякие миркосовты, амазоны и иж с ними, а они и начнуть сокращать. |
Цитата:
ну у нас был один менеджер. он уже лидам (у всех по разному у нас енжиниринг манагер называется) сказал а зачем вам разработчики вы можете быть менеджерами агентов давать агентам задания они все сделают. в итоге уволили менеджера. слишком прогрессивен чел был и не понимал как это работает :lol: |
та это ладно. там еще толпы рекомендаторов которые аи готовы засунуть куда угодно. особенно читаю стоны как бы сделать так чтоб соискатель не использовал ии при этом сами уже готовы даж собес отдать на работу ии. и типа да два ии друг друга собесят. ну че хотели то хотели.
|
Цитата:
Я не про таких манахеров, это так мальчики на побегушках. |
Цитата:
Ну откуда ж я знаю вы вообще AI умеете использовать правильно или просто поболтать. Расскажите свой workflow, как вы используете AI. |
Цитата:
Стесняюсь спросить - а как все вот_это_вот review проходит? |
Цитата:
Так вы так и не сказали - зачем мне рассказывать такому-же, как и мне, анониму все детали внутренней кухни на не-профессиональном форуме? Вопросы и проблемы, которые мне интересны, я описал, и они никак не связаны с "правильностью" использования AI. Они из другой области. |
Цитата:
При прямом непротивлении менеджмента (в общем-то его это совершенно устраивает). Сопротивляться можно, но уже не везде. :shuffle: |
Цитата:
А по-сути, для весьма не простой железяки, недавно за несколько часов (за несколько часов!!) с помощью чатаджипити сваян абсолютно рабочий код с кучей хотелок при минимальном моём ручном вмешательстве. Работает прекрасно, всё, что требуется делает. В одном месте только чатджипити сфолил: не смог нужный сигнал выставить, пришлось мне в даташиты залесть. В остальном - просто на 5+! Я бы подобный код руками неделю минимум ваял, разгребая тучи примеров и копаясь в даташитах. Ну а ваше "а зачем вообще комментарии нужны" - без комментариев :lol: Считайте, что в нашу контору вы собеседование с ходу провалили. |
Цитата:
По выделенному: это означает лишь то, что данная контора собственно разработкой и не занимается, поскольку общее соглашение о том, что комментарии в коде приносят больше вреда, чем пользы, известно уже лет 20 как. И у такой точки зрения есть достаточно сильные основания. Из контекста понятно, что Вы занимаетесь embedded. Это специфическая область и собственно программирования там мало (и вполне вероятно, что существенную его часть действительно смогут заменить LLM). |
Цитата:
я из старой школы. когда еще гпт не было и люди умели читать код глазами и своими мозгами. а не "окей гпт объясни мне что тут происходит". очень жаль что появляется категория разрабов которые не удосужились прочитать базовую базу типа "чистый код". комменты максимум в интерфейсах и максимально осознанные. все что выше этого - мусор. опять же я не сильно против комментов в коде но считаю что при нормально структурированном и более-менее грамотно написанном коде они не нужны. |
Цитата:
ну как как... так же - один на ии генерит код а другой просит ии отревьювить его. удобно же че. |
Цитата:
я выше написал что для прототипирования ллмки подходят вполне годно. а вот итерациями поверх накидывать там уже проблемы возникают. да и прототипируют они только на базе какого то другого кода кем то ранее сделанного и хорошо бы чтоб этот код был сделан не ллмкой. а базовые типовые общеизвестные вещи да оно делает вполне достойно. как появляется специфика - там начинается пук-среньк |
Цитата:
Ну это как то уже по моему заблуждение что они делают по тому как кто-то уже написал до этого. Это тоже самое что сказать что ты пишешь так по тому что увидел что ктото так написал:) |
Цитата:
это то да. все так же как и люди. на то и ии. но тут дело в том что он все же генерит более тривиально и шаблонно всё. а особенно когда шаблон шаблона шаблона там еще хуже. ну типа генерит на базе того что сам ранее генерил. там знаешь как естественный отбор если была удачная мутация то хорошо. если не было то вымирает. но в ии неудачная модель не умирает она так же множится и начинает генерить парашу еще больше. я к ллмкам отношусь как с всезнающими по данным джунам. типа могут многое но нужен глаз да глаз. опять же конечно не всё. но что сверху я сам делаю. интересно я использую агента джуни щас платного. и там видно как квота улетает на разных задачах и вот все честно если задача требует знания глубоко контекста и там реально макаронный код который я бы сам неделю разбирал оно тоже разбирает да часто с ошибками но тоже жрет много квоты на такие задачи. то есть прям можно сопоставить уровень своих когнитивных усилий. если их уйдет много то и ллм сожрет бОльше квоты. бойлерплейтные тривиальные задачи оно решает хорошо. если нужна креативность там уже иди сам а оно только как помощник поверх твоего кода. |
Цитата:
ой да лана, да лучше тебя они могут генерировать код, вопрос в том что у них нет такого контекста в голове как у тебя. да и рассуждать они могут довольно посредственно ещё, только увеличивая окно контекста. Матрицы то статичные. Вот когда сами матрицы будут динамичными, будут подстраиваться под контент. Когда модели станут пластичными, вот тогда самая веселуха и начнется:) |
Цитата:
"Матрицы", если под ними понимаются веса модели уже и так давно динамические в том смысле, что веса постоянно подстраиваются |
Цитата:
в смысле? в уже обученных моделях они подстраиваются? уже сформированные веса же не меняются? я просто не слышал об этом. |
Цитата:
Просто обычно веса (кстати, не обязательно веса, нейронкам есть уже куча альтернатив, это могут быть и бинарные деревья и т.д.) "зажимают" в уже обученных ИИ, что бы сильно не гуляли от вновь поступающей информации, но в определённых пределах позволяют меняться при дообучении. И, кстати, это - отдельная научная проблема: как не "пережать", но при этом что бы вновь поступающая инфа не перекосила сильно условные вероятности (если речь о марковских-like сетках) или гиперплоскости (если речь о классификаторах/распознователях). Как обычно, пока это отдаётся на опыт и чутьё программера. |
Цитата:
По выделенному: эти "альтернативы" существовали задолго до "нейронок". И, в конечном итоге, там тоже осуществляется подгонка весов. "Веса" могут все время менятся при парадигмах, типа reinforced learning. По поводу "перекоса" - эта проблема известна давно, впервые сформулирована Тихоновым и хорошо изучена в теории регуляризации. |
Цитата:
Дообучение никто не отменял энто да, и способов дофигищя, от fine-tuning’а до всяких там meta learning штук. Но я немного про другое. не просто про дообучение, а про новый тип пластичности, где сама модель будет принимать решение как реагировать и подстраиваться. Сейчас ведь всё как? модель натренилии дальше она работает со статичными весами да, можно дообучить, можно прикрутить контекст, можно внешнюю память. Но по сути это косметика. Она не меняет себя под задачу, а только реагирует. а я представляю чтото типа системы где есть вторая, динамическая матрица, что-то вроде быстрой рабочей памяти, которая на лету подстраивает основную структуру весов под конкретный контекст. Не просто файн-тунинг, а постоянное внутреннее самообновление. Типа модель понимает, в каком мире она сейчас мысленно находится, и под это перестраивает собственные нейронные связи. Вот тогда, мне кажется, и начнётся самое интересное когда ИИ сможет не просто генерить текст или код, а реально думать и даже мечтать. когда изменения в нём будут не следствием обучения, а естественным процессом. ну или чтото типа этого. |
Цитата:
ИИ - это железяка. Она ничего не "понимает", она, на самом деле, никакого родства не имеет к тому, что у нас реально в мозгу происходит. Вы можете пару глав прочитать из знаменитой книги "Мозг, разум, поведение", что бы понять, что ИИ - это просто навороченная игрушка, базирующаяся на идеях из 70х годов по адаптивным системам (Репин & Тартаковский, Вапник & Червоненкис и др.) Она просто довольно примитивными методами либо оценивает условные вероятности, либо строит разделяющие гиперплоскости. У вас стоит задача грамотно добавлять в систему новые данные. В случае когда статистики теоретически известны, эта задача была строго решена ещё 60 лет назад Стратоновичем, Коломгоровым и Калманом. Частный случай ф.Калмана (не к ночи будь помянут!) альфа-(бета)-фильтр, в к-ром вес нового измерения просто выковыривают из носа и прибивают гвоздями (так, кстати, и в простеньких ИИ делают). Вам надо решить с каким весом в текущее состоянии ввести предыдущее, а с каким - новые вводные. В ИИ статистики не известны (иначе б нафиг они нужны бы были?), поэтому те же сетки параллельно (при дообучении) численно решают задачу оптимального "долива" новых знаний. Но их вес получается мал именно исходя, что бы система не пошла вразнос. Ничего другого человечество не придумало и при численной оптимизации (сиречь "обучении") тоже самое получается. А разнос - потому что у вас получается неявный рекурсивный фильтр. Он нелинейный, но смысл тот же: если вы начнёте в него слишком резво новую инфу вводить, он может типа даже самовозбудится и начать нести пургу а-ля HAL-9000 из "Космической одиссеи", когда Боуман начал из него платки вытаскивать :) Поэтому, я не очень понимаю как можно на лету перестроить архитектуру. Но если у вас есть конкретные технические идеи - было бы интересно послушать. |
Цитата:
быстрее может да. но не лучше. и да именно в том смысле что его контекст ограничен репозиторием или пачкой репозиториев. и дальше этого он не видит но ты ж знаешь что еще куча внешних связей есть бизнес требований историй проекта там всяких провалов траблшутингов прочего опыта который у тебя в голове есть а у агента нет. |
Цитата:
Ну мы то тоже в принципе просто набор какойто фигни, не понятно из чего состоящей. Да и кстати совершенно не понятно до конца что у нас в голове происходит, в принципе тоже может быть и там структуризация происходить статистически. А модели уже сейчас становятся на столько большими что просчитать их работу в принципе уже не возможно. А дальше будет только лучше, если конечно не будет хуже:) Кстати насчёт пурги, я недавно для интереса сделал маленькую модельку с 0ля и треннировал её в основном на произведениях Стругацких, Лема и Азимова. Так как делал это на лаптопе особо натреннировать ее не удалось, эпох занимал около полтора часа. Но нести забавный бред она начала всетаки и с высокой температурой выдавала иногда забавные вещи. Ничего конкретного конечно я не могу предложить, у меня нет глубоких познаний в этой сфере только интерес :) |
Цитата:
Тут в общем то "простой" философский вопрос - базируется ли человеческое мышление на математике и ее формулах? (Не важно какой сложности, возможно еще даже не изученной.) Если человеческое мышление базируется математике, то теоретически можно создать ИИ таким же способом как сейчс пытаются сделать, а именно основвываясь на математических знаниях. А вот если человеческое мышление не базируется на математике, то ни фига не получится. Будет просто подражающяя человеку игрушка-иструмент для решения каких либо прикладных задачь, сложность зависит от условий. ЗЫ. Человечество порогноз погоды то точный сделать не может, или что нибудь серьезное посчитать в экономике, цену, например, нефти через месяц. А уже типа ИИ сделало :lol: ЗЫЗЫ Хотя , конечно, данная тема уже совсем далека от заявленной про работу в IT :agree: |
Цитата:
Относительно выделенного: не может и никогда не сможет по вполне объективным причинам. Моя диссертация была посвещена нелинейной фильтрации в хаотических системах. Системы нелинейных дифференциальных уравнений (часто еще и стохастических в современных моделях), которые находятся в основании любой системы численного прогнозирования погоды представляют собой как раз такие хаотические системы. Если объяснять простыми словами, то они представляют собой плохо обусловленные задачи, для которых малые колебания начальных условий приводят к большим колебаниям в решениях. Поскольку начальные условия определяются из наблюдений, а те, в свою очередь, всегда содержат ошибку измерений (и всегда будут ее содержать, здесь до принципа неопределенности Гейзенберга можно добраться, разбираясь, почему принципиально невозможно снять "абсолютно точные" измерения) прогноз погоды будет всегда отклоняться от истинного тем сильнее, чем длиньше временной интервал предсказания. Поэтому системы численного предсказания погоды постоянно корректируются наблюдениями и финальная оценка предсказания делается с помощью нелинейного статистического фильтра (как правило, аппроксимации фильтра Калмана) P.S. Как в прошлом достаточно узкий специалист по нелинейной фильтрации замечу, что то, как работают LLM не имеет к этому отношения чуть более, чем совсем. Сейчас в интернете много хорошей информации по нелинейным трансформерам. Там есть все, что нужно, если интересно разобраться как, почему и в каких пределах это работает |
Цитата:
Дык я про это и написал. Сейчас люди использут математику для прогнозирования и рассчетов (LLM, нелинейные дифференциальные уравнения и прочее.) Вот и вопрос - все ли процессы возможно описать математикой? (не вдаваясь в уровень сложности.) И если не все, то какой использовать инструмент для изучения и описания? К сожалению, кроме математики у нас пока ни чего другого нет. ЗЫ И тогда относительно выделенного, я бы сформулировал так: "не может и никогда не сможет базируясь на математической модели по вполне объективным причинам". |
Цитата:
Согласно современной науке человеческий мозг - это коллекция нейронов, и когнитивные функции мозга (то есть то самое мышление) определяется взаимодействием между этими самыми нейронами посредством прохождения "сигнала" (импульсов) по ним. Сила этих импульсов зависит от множества факторов, физически они являются прохождением нейромедиаторов (определённых гормонов) между стенками соседних нейронов. Это если упрощённо. Нейронные сети, применяемые в ИИ, весьма схоже работают - именно это даёт нам основания говорить о том, что в ИИ вторая И имеет право на жизнь. Долго ли мы уже разрабатываем ИИ? Ну, меньше 100 лет точно. Долго ли совершенствовался мозг живых существ? Ну, не меньше 500 000 000 лет. Разница всего в 5 000 000 раз по срокам. Имеет ли смысл сравнивать - очевидно, нет. Имеет ли смысл совершенстовать и пользоваться результатами, если они полезны - очевидно, да. |
Цитата:
Это вот ключевая фраза. Да , только "согласно современной науке" . А можем ли мы опираться на "современною науку" в описании работы собственного мозга и мышления? Как я понимаю, этот вопрос до сих пор не решен. |
Цитата:
Я не вижу проблемы в том, чтобы опираться на достижения современной науки, ибо она применяет доказательный подход, а также критические оценки оппонентов на разных уровнях прохождения гипотезы. Всё вместе это современный научный подход. |
Цитата:
Я бы с Вами согласился, если бы не то, что наука сама себя постояннно опровергает довольно регулярно. И много из того что было - "научно подтвержденно", оказывается совсем не так. Но это уже совсем другая истроия. :shuffle: И вопрос - все ли природные процессы можно описать математикой? - то же до сих пор открыт. |
Цитата:
Возможно вы имеете ввиду те разделы науки, которые опираются главным образом на теории, например квантовую механику. Поймают какой-нибудь новый бозон, который никто не предсказывал - и тут же придумают теорию, которая его объясняет. Механизмы работы человеческого мозга изучены довольно детально, не думаю, что именно по механизмам нас ждут какие-то открытия, опровергающие современные представления о том, как мозг функционирует, в частности из чего складываются его когнитивные функции. Физиология довольно разработанная область науки. Другое дело взаимодействие областей мозга, памяти, инстинктов, эмоций, креативности, фантазий, изобретений и тд - вот там да, открытий стоит ждать. И эти открытия окажут влияние на ИИ, приблизив модели к реальному мозгу ещё ближе. |
Цитата:
Я не являюсь специалистом, но вот например интервью Анохина К. В. Вот ссылка на вики - https://ru.wikipedia.org/wiki/%D0%9...%B2%D0%B8%D1%87 Вот ссылка на интервью (может конечно фейк, но не думаю): https://naked-science.ru/article/in...henye-do-sih-po Вот пара цитат : Цитата:
Там еще много чего интересного ..... |
Цитата:
Ну проблема в том что современная наука пока не может обьяснить что под этим всем стоит. Тоесть она наблюдает некие процессы и описывает их некими шаблонами, формулами. Но основ то мы не видем. Ну можем предположить что все вокруг это возмущения каких-то полей. Но это опять же предположение. Мое мнение что мы до бесконечности долго можем описывать то что видим в этом мире, но заглянуть за изнанку в принципе не можем. Влияет ли это какие-то на нас? не думаю. Но и опятьже никто не может определённо сказать как работает например мозг не зная из чего он в принципе состоит. Тоесть можно описать что он работает вот так вот, но это будет скорее свего описания шаблона. |
Цитата:
Я открою страшный секрет: "современная наука" пока что не в сотоянии теоретически объяснить даже то, почему те же LLM в принципе работают (и до каких пределов). Там нет законченой математической теории, т.е. это чисто феноменальные модели, которые работают потому, что "ну, в принципе, архитектура имеет смысл и, наверное, что-то описывает". Если же подходить к сути обсуждаемого в последних нескольких постах, то фактически речь идет о том, дает ли современное научное знание исчерпывающую картину той части окружающего мира, которую оно описывает. И, в частности, является ли математическое описание "истинным" (т.е. исчерпывающим). Мое мнение состоит в том, что математические теории сами по себе - абсолютно истинны в том смысле, что они очень ясно описывают собственную систему аксиом и способы построения конструкций, которые считаются "правильными". Другое дело, что к описываемой системе они имеют отношение лишь в той степени, в которой это отношение предусмотрел тот, кто описывал. Проще говоря, математика - истина в последней инстации, но то, что она при этом описывает имеет отношение к реальному миру постокльку-поскольку |
Цитата:
Под этим ничего не стоит. Всё, что есть в человеческом организме разложено по молекулам и известно. Нейронные импульсы передаются нейромедиаторами. Импульс возникает после того, как возбуждается определённая область мозга. Возбуждается эта область под воздействием других импульсов, поступающих из других областей мозга. Нервная система служит триггером возбуждений, но не только она. Не нужно мистику примешивать сюда. Много чего ещё следует изучить, не спорю, но нет ничего мистического в том, как работает мозг - это химическая нейросеть, где вместо весов нейронов - некоторое количество гормонов, а вместо соединений нейронов - перетекание этих гормонов от нейрона к нейрону посредством взаимодействия их аксонов. Входами мозговой нейросети служат импульсы от нервной системы, например от сетчатки глаза, или от кожных нервных окончаний. |
Цитата:
Если проводить аналогию с нейросетями, применяемыми в ИИ, то науке известны принципы возникновения и передачи сигналов в мозге, известно, что связано всё нейронами, и передаётся по аксонам, но науке неизвестна топология этих связей - другими словами неизвестна та самая модель, которая у нас в голове (чат гпт, джеминай, грок или китайская, как её там? а может даже какая-то совсем другая) - именно это и будет предметом будущих открытий и их следствием будет улучшение моделей ИИ, приближение их к естественному мышлению. как связаны отделы мозга между собой, за что именно они отвечают, что такое память -какой отдел отвечает за долговременную память а какой за кратковременную и как память связана с другими отделами и тд. |
Цитата:
Совершенно не секрет для меня:) |
Цитата:
Это опять не о чем мой друг. Самой основы нет. Мы не знаем что такое энергия, это сейчас только конструкция. А по этому мы можем только предпологать как все работает на самом деле |
Цитата:
Ты обьясняеш какие-то очень уже всем понятные вещи:) |
Цитата:
Это нормально, что мы не знаем всего. Но мы что-то знаем, и имеем математические модели, описывающие это знание. Поступят новые данные - возможно изменятся модели. Так наука прогрессирует, это нормально, и это улучшает жизнь людей. От того, что мы не знаем всего - ничего не встало и прогресс не замер на месте. Современные ИИ модели очень полезны. От того, что мы не знаем, что такое энергия на самом её низшем уровне - не мешает этой энергии питать ЦОДы по всему миру, и поддерживать нейросети в рабочем состоянии, при этом принося огромную пользу цивилизации. Познание - рукурсивный процесс. Чем больше ты узнаёшь - тем больше ты понимаешь, как мало ты знаешь. Чтобы понять рекурсию - нужно понять рекурсию. |
Цитата:
Ничего страшного, повторение - мать учения, да и не всем понятно, смотрю, некоторые продолжают во всякие мистические теории "нам не всё известно" верить, не доверять и недооценивать мощь того, что уже есть. ну, не хотят, пусть не хотят. Эти разговоры про ИИ тут на форуме регулярно, отмотай хотя бы на 10 лет назад - те же люди твердили, что ИИ - пшик и блеф, а сейчас он рак выявляет лучше всяких докторов. |
Цитата:
Да только рекурсия хороша когда используется для довольно малого количества итераций, ибо давольно быстро доберешся до max depth, а я боюсь мы все не сможем понять ибо итераций нужно бесконечное множество:) а так то да ты можешь сказать тебе общего понимания не надо чтобы цивилизация развивалась. Нам в принципе вообще не важно развивается ли цивилизация, мы тут очень временно:) |
Цитата:
Ну, если только при нашей жизни не научатся выращивать гуманоидов и пересаживать им наш старческий мозг. |
Цитата:
Это, знаете, как в литературе считается, что писатель не должен быть слишком начитанным, ибо у него может образоваться комплекс "всё уже написано до нас". Не гоже изобретать велосипед, но и слишком глубоко рыть тоже часто плохо для новых идей :jiihaa: Так что, генерите, не стесняйтесь :) |
Цитата:
Математика - это лишь инструмент для описания законов. Будь у людей на руках не 10 пальцев, а 12, то и система счисления имела бы не десятичную основу, и формулы выглядели бы иначе. Но математика - это лишь язык описания. Не вижу причины по которой нельзя было бы описать тот или иной процесс, явление. Важнее не язык, а законы, которые описывают формулы. Не всегда описание будет универсальным - какие-то явления опишет, а какие-то нет, как нет, например, единых законов в физике - в квантовой физике свои законы, в классической свои. |
Цитата:
Ну это если вдруг все волновые функции не перестанут разом схлопываться:) |
Цитата:
Интересно конечно но уж очень уж много ресурсов требуют эксперименты:) у меня лаптоп не вытягивает:) |
Цитата:
До сих пор - пшик и блеф, увы. И рак он лучше докторов не выявляет. Основаня проблема в том (как и 10 лет назад), что это - black box и никому неизвестно, в каких пределах на выдаваемые им результаты можно однозначно полагаться. В нынешнем исполнении LLM модели несут цивилизации, как минимум, не мЕньшую угрозу, чем приносимая ими же иногда польза. Если что, это не означает, что их не следует изучать и совершенствовать. |
Цитата:
Это фундаментальная ошибка. Математика - это наука, и не важно сколько у вас пальцев на руке. Вы путаете "математику" - как науку , и записи в математике как некие символы. Наука потому как часто сначала идет математематическое доказательство, а уже потом, иногда через много лет, происходит физическое или еще какое подтверждение. Вот и википедия так же считает, что математика Цитата:
|
Цитата:
Продолжу придерживаться своей точки зрения, что математика - это язык описания законов, теорий. Для построения теории необходимо выбрать некоторые постулаты, например, что параллельные прямые пересекаются. И тогда получим геометрию Лобачевского, которая будет описана математическими уравнениями, без единого противоречия. Если же в качестве постулата выбрать то, что параллельные прямые не пересекаются, то получим привычную нам Евклидову геометрию, и она так же будет описана набором уравнений, то есть математикой. |
Цитата:
Не соглашусь с тем, что ИИ не выявляет рак ручше докторов , ибо проведено довольно много сравнительных тестов, каждый может поискать, и некоторые модели подтверждают своё неоспоримое превосходство в диагностике над человеком. Соглашусь с тем, что нейросети это black-box не имеющие строгого мат описания. Поэтому склоняюсь к тому, что будущее за гибридными моделями, то есть за сочетанием ИИ моделей с моделями со строгими правилами, логикой, ограничениями. Грубо говоря, классический софт будет иметь в себе некоторый советующий/предсказывающий и тд. компонент, основанный на нейросетевой модели, и далее результат работы нейросети будет обрабатываться классическим алгоритмом. Таких пересечений ИИ с чёткой детерминистской логикой может быть сколь угодно много, для построения модели с предсказуемыми результатами, во избежание той самой проблемы неопределённости результата. |
Цитата:
Поясню. Все великие открытия, что бы ли до сих пор, они либо там, где линейщина, либо простейшие частные случае там, где НЕлинейщина. Основа нашего бытия - уранвнения Шрёдингера решаются только в простейших случаях (электрон налетел на небесную ось там, атом водорода имени Бора и т.д.). Есть ещё отдельные интересные, но очень частные решения (предельные циклы, солитоны и т.д.). Но природа "решает" именно нелинейные задачки, она живёт в этом базисе. "Решает", по-сути, на аналоговых компах (были такие в 60е, молодёжь может посмотреть в Инете). Причём "железо" таких компов - не электроника (хотя, иногда и она тоже), а молекулы, молекулярный уровень. Мы, хомо сапиенсы, в сути своей - ходячие аналоговые ЭВМ, на к-рых мать-природа ставит постоянно эксперименты, чего-то всё время обсчитывает. Аппаратура не простаивает :lol: А наработанный человечеством математический аппарат фолит на таких задачах. В каком-нибудь берущемся интеграле или диффуре поменяли 2 на 1,5 и он уже не решается. Поэтому наука бродит вокруг тех решений, к-ые выражаются в квадратурах как тот чувак, что искал под фонарём, а не там, где надо. Единственная надежда - на численные решения, частным (но мощным) случаем к-рых и является ИИ. Но проблема в том, что: а) численные решения не дают всей картины (за деревьями леса не видно), где пределы и где глобальный оптимум - никто не в курсе; б) вычислительная нагрузка очень велика. Но ИИ - пока единственный путь, потому что путь природы - массовые лабораторные эксперименты со случайным поиском мы себе позволить не можем. |
я тут озадачился со своей машиной. там сзади диски как то сильно ушли и колодки. и говорю с чатгпт и гемини. один и тот же диалог. и он мне такой а ты фото покажи а с того ракурса а с этого а вот так и корчое чатгпт с вердиктом ну я ничего не вижу плохого можно ездить но тыщ через 5 меняй. а гемини по тем же фото с теми же промптами (изначально) ой чел у тебя все пропало да как ты вообще ездишь! завтра колесо отвелится.
вот и думай.. ну реально как гаражные мастера и у каждого свое мнение. ) |
Цитата:
Это, если взять политический пример (понятный мне и вам), когда в отлаженный механизм 300-летней западной деморкатии вламывается Трамп. ИИ уже обучен, у него нет "отводов" с данными о классификации данной темы и т.д. Если вы хотите, что бы он, например, не выдавал как сделать наркотик или бомбу, вы его должны дообучать его же методами. А попытка залезть в эту структуру с помощью бинарной логики if - else запросто может привести к неадекватному поведению всей системы. Я выше приводил аналог ИИ из области, где статистики известны, фильтра Калмана. У него есть недостаток, что если долгое время вход не меняется, у него коэффициент учёта входа падает практически до нуля. И если вдруг на входе происходит какой-то ахтунг, он не может среагировать. И некоторые лезут руками и тупо не дают коэффициенту упасть ниже определённой величины. То самое ваше гибридное решение. Эту проблему это частично решает, но сразу порождает другие. Но в случае с ф.Калмана вы хоть можете теоретически проанализровать чем придётся расплачиваться. А с ИИ даже такой возможности нет: вы не можете численно прогнать триллионы вариантов, что бы понять, что будет после вашего ручного вмешательства. |
Цитата:
Что доказывает близость моделей ИИ к человеческому разуму! :lol: |
Цитата:
Сам не работал, но застал людей которые работали :) Свернули тогда активно на цифровые компы с аналоговых, а возможно аналоговые ЭВМ могут быть прорывом, но кто ж сейчас будет на это денги выделять. Хотя вот что то типа нейрокомпьютера можно было бы сделать. :gy: |
Цитата:
не не, никакого влезания внутрь нейронки. нейронки как были чёрными ящиками, пусть такими и остаются. И пусть решают свои узкие задачи, например распознавание образов, например лиц китайцев. говоря о гибридном подходе, я другое имею ввиду, а именно то, что современные сервисы будут сочетать в себе как строгую логику, так и результаты работы нейросетей. Как пример автономные авто. Дорожная ситуация анализируется ИИ с результатами: газ, тормоз, передача вверх, передача вниз, руль влево, руль вправо, руль прямо, задняя передача. И этот результат не передаётся непосредственно механизмам, а передаётся в некоторый блок верификационной логики, чтобы при движении прямо вдруг не включить заднюю передачу, и тд. |
Цитата:
Пожалуйста, кто ж против, если придерживаться своей точки зрения. Только непонятно причем тут геометрия Евклида и Лобачевского. По моему - это как раз и доказывает, что математика наука (не естественная например как физика, но наука) Определяются условия и доказывается все остальное. PS Получается , что например теория алгоритмов, теория вероятностей - то же не наука, это вроде часть математики. |
| Часовой пояс GMT +3, время: 10:33. |
|