Pull to refresh

Comments 58

Если честно, я ожидал большего от статьи с таким заголовком.

ИИ не умеет принимать решения. Это всего-лишь отличная штука, которая может очень хорошо шерстить гигантские объемы информации. Но я как с 2019 года писал, так и продолжаю писать о том, что при всём желании, чисто физически невозможно сделать так, чтобы ИИ воспринял данные и принял ответственное решение на основе этих данных.

Если у тебя нет человека, который будет отвечать за свои действия - у тебя не может сущетсвовать ответственности. И сколько ты не бейся над установкой ещё одного программного продукта - ты эту войну не выиграешь.

чисто физически невозможно сделать так, чтобы ИИ воспринял данные и принял ответственное решение на основе этих данных.

А чем "ответственное" решение отличается от не "ответственного"? Ну вот кто-то бросил монетку и на основании этого принял решение. Это "ответственное" решение?

Если у тебя нет человека, который будет отвечать за свои действия - у тебя не может сущетсвовать ответственности

Ответственность уже давно можно возложить и на организации или какие-то другие "юридические структуры". То есть человек тут давно уже совсем не обязателен.

И вот в этот момент всё рушится.

Это очень простой вопрос, но говорить о нём не хотят.

Прикол в том, что организации и бизнесы (как и проекты) ростут, когда в них есть люди, которые готовы взять на себя ответственность (а не вину).

Под отвественностью я подразумеваю такую вот страшную вещь - это когда тебе абсолютно пофигу, что произойдёт. Вирус-ли, гром и молния-ли, или пусть сам боженька Бог спустится на землю, и скажет тебе "Нет", но работа будет выполнена. Когда у тебя есть человек, который работает прям так, как написано в Послании к Гарсии.

Когда у вас есть судья, который отвественно относится к своему делу, он будет выносить правильные и отвественные решения. Если мы видим, что маму с грудным ребёнком нужно посадить на 15 лет за жестокое убийство отца этого ребёнка, то её не будут просто так сажать. Будет вынесен отвественный приговор. Да, мать убила человека. Ей с ребёнком больше не положено. Ей надо в колонию, такую мы терпеть не будем. В то же время, отвественный судья проверит связи этой женщины и скажет в приговоре несколько слов о том, что сделать с ребёнком. Не в колонию его же?

Существует миллион вариаций подобного сценария. К каждой из них надо подходить обдуманно и отвественно. Твоя задача - сделать так, чтобы человек, совершивший преступление получил соотвествующее наказание. Но при этом, надо убедиться, чтобы люди, которые не совершали преступления, не страдали от твоих решений. И при этом вам надо будет отвественно подходить к решению таких вот моральных диллем.

Это - сложно. Очень сложно. Нереально сложно. На самом деле, как человек, засидавший в суде присяжных, могу сказать, что правильное и честно разобранное дело - это сложно. Можно всегда просто "сорваться" на подсудимого, и обвинить его во всех смертных. Но нужно сделать так, чтобы ему в котелок дошло сообщение "то что ты наделал - настолько ужасно, что другие люди не хотят тебя здесь видеть. Посиди, подумай над тем, что ты натворил, и сделай правильно."

В таких случаях проку от ГПТ - ноль.

Но, в нём есть прок, если загрузить в него все подобные дела, и заставить его прошерстить инциденты, и выдать ссылки на уже существующие подобные дела. Тут он ещё как помощник.

А вот выносить решение - это уже к судье.

вот в этот момент всё рушится

Я не вижу чтобы вокруг меня всё рушилось или было разрушено. Хотя этот принцип работал ещё задолго до моего рождения и работает до сих пор.

Вирус-ли, гром и молния-ли, или пусть сам боженька Бог спустится на землю, и скажет тебе "Нет", но работа будет выполнена. °

Тогда у вас подавляющее большинство людей не способны на такую ответственность. Тем более чтобы постоянно.

В таких случаях проку от ГПТ - ноль.

От ГПТ может и ноль. От ИИ как такового совсем не обязательно. Более того я бы сказал что как раз таки ИИ способен выполнять такие задачи гораздо объективнее людей. Уж точно лучше чем средний человек или даже средний судья.

Я вам как специалист по ML скажу, что профильно натренированный GPT гораздо эффективней человека на этой должности. Даже больше скажу, в суд района, где я жил поступило 12 000 гражданских исков, которые суду предстоит разбирать.

Судья просто будет растягивать каждое дело на год-два, потому, что физически не в силах погружаться и разбираться с каждым делом, а цена ошибки судьи в гражданском процессе, - переход дела в вышестоящую инстанцию.

В таком случае, машина смогла бы разобрать 12 тысяч дел на предмет недостатка документов, позволить сторонам выступить на предварительном слушании и запросить доказательства и в конечном итоге вынести приговор в точности по букве закона. Затем могла бы принять во внимание матерей/детей/обстоятельства при необходимости и изменить приговор, причем, будучи консистентной в своей "морали" и соотнося "мораль" с законом.

Модель не могла бы пропустить мимо ушей замечания истца или защиты, для запроса/обработки новых документов тратила бы часы, а не месяцы. Модель могла бы принимать возражения и тратить время на самопроверку независимыми слоями.

К слову, вы пробовали вообще пользоваться ЧатЖПТ? Он, вопреки тому, что говорите вы крайне эмоционален, склонен отклоняться от инструкций ради прощения, доброты, толерантности. Модель, предназначенная для суда была бы намного жестче имела бы несколько слоев само-проверки и могла бы вовсе заниматься вещами, которые не способен судья, например - находить участников процесса, не выполняющих свои роли (защиты/обвинения/свидетельства).

Я с вами в общем сильно не согласен

а сможет ли ии следовать не только букве, но и духу закона?

Почему нет? Это же просто вопрос того как его натренируют.

Ну и как бы проверку человеком, как минимум на первых порах, никто не отменял. И даже такой вариант был бы лучше и экономил кучу времени и ресурсов. Как это например уже сейчас происходит в радиологии.

Вы же не всерьез спрашиваете, конечно может, в добавок еще и консистентно, основываясь на логике или решениях других судов, и даже учитывая сходство обстоятельств

Эту тему уже миллион раз обсасывали. Разница не в качестве, а в ответственности. Примерно такая же, как между "участием" с дивана в игре "Кто хочет стать миллионером" и реальным риском в студии на деньги.

Судья, политик, бизнесмен или менеджер проекта может быть хуже AI. Но у него есть представление о профессиональной этике, совесть, в конце концов, возможные репутационные и карьерные последствия.

ИИ-агенту ничего из перечисленного не грозит. Даже его авторам не грозит, потому что те из них, кто вменяемый, всегда скажет, что решение, предложенное ИИ, должно критически осмысляться, и уже потом применяться.

Мир, в котором правит ИИ -- это вот как условный Гугл, где вас может забанить алгоритм, за то, что какая-то "метрика жулика" показала 0.754 при пороге 0.753, и писать будете на деревню дедушке. При этом, возможно, ИИ будет чаще прав, чем модератор-человек, но жить в мире, где нет ответственных, удовольствие спорное.

Да бросьте, я привел конкретный пример, 12 тысяч гражданско-правовых исков, которые займут годы и в ходе которых судье не придется принять ни одного судьбоносного решения, неотвратимого другими инстанциями. И более того, утверждаю, что судья не способен физически работать с 12 тысячами дел "ответственно".

Люди могут сколько угодно обсасывать мечты, но одно дело, полемика в стиле "нами будут править машины и они умнее", другое дело, - реальная применимость ИИ как инструмента.

Вы заблуждаетесь, считая, что ИИ не способен учитывать этику/совесть/репутацию, напротив, alignment, то есть предрасположенность ИИ к X, например "морали" является одной из проблем LLM. Если судьи в обучающей выборке поступали осознанно вопреки закону, здравому смыслу или морали, то модель не подвергавшаяся unalignment'у унаследует эти качества судей. Иными словами, наиболее вероятно, вердикт ИИ будет абсолютно не отличим от судей и лишь будет быстрее.

Аргумент про гугл это буквально ярчайший пример отсутствия ответственности компании за эти баны, как у судьи, для гугла есть "компании с которыми лучше не пересекаться" и "все остальные". Гугл не могут "посадить" за бан, но могут за нарушение копирайта или отказ от передачи данных, с чего его решения внезапно основывались бы на несуществующем риске? Они даже людей не выделяют, чтобы перепроверить баны.

Так же у судий, если судья знает, что его "не посадят" за нарушение прав человека, но "посадят" за противостояние компании/человеку/приказу, то судья переобуется также быстро, как гугл перед GDPR. И вопрос в том, что ИИ тоже так умеет, но также умеет этого не делать, если цель обучения была судить, а не имитировать судей.

Дело не в том, что ИИ "не способен" что-то там учитывать, а в том, что ему всё равно. Он поступает вероятностно, и для него "правильно" -- это то же самое, что близко к выборке. Наша мораль устроена сложнее, чем alignment, что показывают всякие задачи о вагонетках, в которых самые минимальные изменения условий приводят к довольно большим разбросам в моральной оценке происходящего. И даже если случай похож на 100500 других (объективно), мы субъективно можем решить, что он всё-таки не таков.

Гугл именно что ярчайший пример этой гадости, которую мы (общество) пока терпим ровно потому что это частная контора со своим уставом, и она ведёт бизнес как хочет, а кому не нравится, может с ними не работать. Но если так же будет поступать государство, это уже совсем другая ситуация.

Пусть AI проверяет документы, выносит предварительные оценки и так далее, кто ж против. Если это хороший инструмент, пусть судья пользуется. Главное -- чтобы на итоговом документе была подпись человека, и он бы за эту подпись отвечал, а уж какой инструмент ему помогал -- его дело, не проблема.

Дело не в том, что ИИ "не способен" что-то там учитывать, а в том, что ему всё равно

Как и большинству судей в большинстве случаев. Какова вероятность что судью действительно привлекут к ответственности за неправильно принятое решение?

Вон недавно в США выяснили что человек десятилетия невиновным в тюрьме сидел. Судью как-то за это наказали?

А если вспомнить про коррупцию и всякие предубеждения со стороны судей....

И даже если случай похож на 100500 других (объективно), мы субъективно можем решить, что он всё-таки не таков.

И при этом совсем не обязательно это решение будет правильным. И я бы даже сказал что такие вот "субъективные" решения суда чаще неправильные чем правильные.

Если вероятность привлечь судью больше нуля, это уже выше, чем у AI, не так ли?

"субъективные" решения суда чаще неправильные чем правильные.

Смотрите, тут вот какая история. У нас есть задача, которую точно решить невозможно (гарантированно доказать, обвиняемый виновен или нет), значит, нашей целью является ступенька ниже: провести процесс по всем правилам, и что он покажет, то покажет.

Если соблюдены все процедуры, рассмотрены все доводы, факты и т.п., мы знаем, что больше ничего сделать нельзя. Если же есть пространство для оспаривания, то можно биться дальше.

Предположим, AI говорит, что вот с вероятностью 99% этот товарищ виновен. Хорошо, что дальше? А дальше просто все эти дела автоматически пойдут на апелляцию, где обвиняемый будет говорить, что то или это не учли.

Тут в каждом втором тексте про Chat-GPT пишут, как легко его можно попытаться в чём-либо переубедить. Ну вот и будет ровно то же, что и сейчас -- прокурор будет убеждать в своём, адвокат в своём. А стоит ввести "чёрный ящик" на любом этапе -- ну так обвиняемый будет его оспаривать, потому что кто смирится с тем, что его считают виновным просто из-за какой-то численной корреляции внутри нейросети.

Если вероятность привлечь судью больше нуля, это уже выше, чем у AI, не так ли?

И точно так же можно назначить кого-то ответственным за решения AИ. И он уже может решать когда использовать AI, а когда нет. И если использовать, то какой.

Если соблюдены все процедуры, рассмотрены все доводы, факты и т.п., мы знаем, что больше ничего сделать нельзя.

Ну так проблема то в том что средний судья в среднем процессе этого не делает. Или как минимум делает не на 100%.

Плюс предвзятость или там коррупция. Или то что разные судьи могут принять разное решение в одном и том же случае. Даже один и тот же судья может принять разное решение в зависимости от его настроения или там даже времени суток.

Предположим, AI говорит, что вот с вероятностью 99% этот товарищ виновен. Хорошо, что дальше? А дальше просто все эти дела автоматически пойдут на апелляцию, где обвиняемый будет говорить, что то или это не учли.

Абсолютно верно. Точно так же как и сейчас. Но при этом запрос об апелляции могут отклонить. Например другой ИИ. Или несколько разных ИИ. Или человек. Или комбинация из людей и ИИ.

Ну вот и будет ровно то же, что и сейчас -- прокурор будет убеждать в своём, адвокат в своём

В чём разница по сравнению с человеческим судьёй?

А стоит ввести "чёрный ящик" на любом этапе -- ну так обвиняемый будет его оспаривать

А обычный судья у нас не "чёрный ящик"? Его решения абсолютно прозрачны и он всегда их объясняет?

И точно так же можно назначить кого-то ответственным за решения AИ. И он уже может решать когда использовать AI, а когда нет. 

Разумеется, к этому, я думаю, и придём. Сейчас судья тоже может, условно, в чатике спросить, что делать. Неважно, пользуется он гуглом, википедией или LLM -- поставил фамилию и подпись, значит, это уже твоя ответственность.

Ну так проблема то в том что средний судья в среднем процессе этого не делает. 

Да, и дело пойдёт на второй круг. И там, как я понимаю, могут не просто не согласиться, но и дать дисциплинарную оценку предыдущему судье.

Его решения абсолютно прозрачны и он всегда их объясняет?

Ну да, это называется "мотивировочная часть", разве нет?

Впрочем, не суть. Мне кажется, весь этот разговор примерно того же уровня, что и "программист вместо себя использует chat-gpt / нанимает индусов". Применительно к программистам средневзвешенное мнение -- пусть нанимает кого хочет и использует что хочет, если качество не страдает, и он за свой код отвечает.

Вряд ли кто-то (не я точно) будет запрещать судье пользоваться любым современным инструментом повышения продуктивности.

Разумеется, к этому, я думаю, и придём.

Ну да. Как я уже писал выше скорее всего будет как в радиологии: ИИ даёт предварительное решение, которое проверяет человек. В результате во первых экономится куча времени и ресурсов, а во вторых реже случаются ошибки.

Да, и дело пойдёт на второй круг.
Совсем не обязательно. Потому что апелляцию могут отклонить. Или на апелляции может попасться такой же судьйa.

Вон из недавнего. Glynn Simmons 48 лет просидел в тюрьме хотя не был виноват. При этом у него было алиби, а все "улики" это свидетельские показания 18-летней девушки которая получила ранение в голову. Думаете он апелляции не подавал?

Ну да, это называется "мотивировочная часть", разве нет?

Это бумажка для "чтобы было". Туда судья может что угодно написать.

И при желании ИИ вам тоже может её писать. Это вас устроит?

Вон из недавнего. Glynn Simmons 48 лет просидел в тюрьме хотя не был виноват. При этом у него было алиби,

Ну, понимаете, это такой anecdotal evidence, который всегда можно вытащить. Дескать, сосед пьёт и курит как паровоз, а ему уже 90 лет, а у другого сердце в 40 отказало. Всё бывает.

Пусть бумажка будет для "чтобы было", и пусть судья знает, что бумажка лежит. Сегодня ветер дует в одну сторону, завтра в другую. Пусть AI пишет, если судье самому лень. Главное -- это чья подпись под документом, а кто сочиняет -- для меня дело десятое.

Ну, понимаете, это такой anecdotal evidence, который всегда можно вытащить.

Нет. Это яркий пример того что нынешняя система даже близко не идеальна.

То есть будет ли ИИ ошибаться? Будет. Обязательно будет.

Но вопрос не в этом. Вопрос в том будет ли он ошибаться чаще чем это делают люди. И вот тут ответ уже не так однозначен. Мягко говоря.

Пусть бумажка будет для "чтобы было", и пусть судья знает, что бумажка лежит. Сегодня ветер дует в одну сторону, завтра в другую.

Ну вот знает он. И что это нам даёт в реальности?

Пусть AI пишет, если судье самому лень.

AI может и без судьи написать.

Ну так пусть AI и без судьи пишет, лишь бы подпись судьи стояла. Потому что судье за это может прилететь. Может, не сегодня, а через 20 лет. И пусть об этом знает. Думаю, на этом мы можем прийти к согласию -- как говорится, и вашим, и нашим.

Потому что судье за это может прилететь.

А точно может? Быстрый гуглёж говорит что:

Судья принимает решение на основании своего убеждения и не должен отвечать, если его мнение не сходится с вышестоящим судом. Поэтому по закону судью нельзя привлечь к ответственности за принятое решение. https://journal.tinkoff.ru/ask/otvetstvennost-sudi/

Кроме того создателям ИИ или тем даст разрешение на использование ИИ в теории тоже может прилететь. А вот на практике....

Я думаю, что вполне справедливо, если судья не сошёлся во взглядах с начальством, и ему за это ничего не сделали. У судьи нет хрустального шара, где он видит истину -- всё, что он может сделать, это честно соблюсти процедуру и вынести решение, которое вышестоящая инстанция признает имеющим право на жизнь (даже если не согласится).

Создателям AI, как мне кажется, не может и не должно прилетать. Тем, кто даёт разрешение -- уже вопрос спорный. Но так или иначе, если вам нет дела, есть подпись под документом или нет, она же вам не повредит, не так ли? А мне будет приятно :)

Я думаю, что вполне справедливо, если судья не сошёлся во взглядах с начальством, и ему за это ничего не сделали.

Так а за что его тогда могут наказать то? За умышленное принятие неверного решения? Так ИИ на такое просто не способно. Что ещё остаётся?

Судья может нарушить процедуру, не учесть важный фактор, проигнорировать свидетеля и т.п. То есть халтурно выполнить свою работу (это если исключить намеренные злоупотребления). ИИ эти проблемы не решает, это не его функция. Опять же, мы говорим о текущих технологиях, а не об абстрактном будущем, где AI на уровне человека во всех отношениях.

Судья может нарушить процедуру,

А ИИ это может?

не учесть важный фактор, проигнорировать свидетеля и т.п.

Насколько я вижу это не наказуемо.

А ИИ это может?

Конечно, может. Вы сейчас чат-gpt говорите, мол, ты неправ, вася, и он соглашается, что да, неправ. Значит, он может иметь две противоположные точки зрения на предмет, и очевидно, что одна из них ошибочна.

Насколько я вижу это не наказуемо.

Наказуемо, вот примеры. Но в любом случае, пусть документ будет. Если нарушены правила и есть жалоба, это уже хорошо. Пусть жалоба не удовлетворена, но она лежит, и кто знает, когда и где придёт в движение? Я не знаю, и судья не знает. Может, на хорошее место попадёт другой судья, а не тот, на которого жалобы. А может, и нет, но вот пусть судья и думает на эту тему хоть немного перед решением.

Конечно, может.

Ну давайте я переформулирую: вы же понимаете что мы даже сейчас можем создать ИИ, который будет придерживаться процедуры? Точно так же как мы можем создать ИИ, который будет проверять придерживается кто-то процедуры или нет?

Наказуемо, вот примеры.

Ну вот цитата из вашего источника:

В соответствии с пунктом 2 статьи 16 Закона Российской Федерации
«О статусе судей в Российской Федерации» судья не может быть привлечен к
какой-либо ответственности за выраженное им при отправлении правосудия
мнение или принятое судом решение, если только вступившим в законную
силу приговором суда не будет установлена виновность судьи в преступном
злоупотреблении либо вынесении заведомо неправосудного судебного акта.

То есть наказуемо только "преступное злоупотребление" и "вынесении заведомо неправосудного судебного акта". И на мой взгляд эти два пункта в общем-то к ИИ неприменимы. Ну или точнее как минимум можно без особых проблем создать ИИ для которого это так.

Не знаю, если бы так было всё просто, процедуру бы никто не нарушал, зачем? Обычно это отдельное рассмотрение, чтобы понять, нарушил или нет, заведомо или не заведомо. А в той статье довольно интересные примеры того, что по факту было сочтено злоупотреблением.

Не знаю, если бы так было всё просто, процедуру бы никто не нарушал, зачем?

Из чисто человеческих слабостей: коррупция, устал и было лень, голова была занята другими делами и так далее и тому подобное.

А в той статье довольно интересные примеры того, что по факту было сочтено злоупотреблением.

В моём понимание "злоупотребление" подразумевает наличие намерения. И похоже не только в моём:

Злоупотребление должностными полномочиями: Использование должностным лицом своих служебных полномочий вопреки интересам службы, если это деяние совершено из корыстной или иной личной заинтересованности

https://www.consultant.ru/document/cons_doc_LAW_10699/2da8d7a9884839c44d98466e0b1a63101b298844/

То есть если ошибся случайно, то это уже не злоупотребление.

ИИ может нарушать из корыстной или иной личной заинтересованности?

Тут ещё такой момент: если судья постоянно косячит, пусть и не из злого умысла, его не накажут, но и вряд ли куда-то продвинут. Это просто плохой работник, не преступление.

Насчёт AI -- ну, мы опять обсуждаем какой-то достаточно далёкий AGI. Нынешние модели вообще "могут" что-либо условно. Если систему убеждать в том, что чёрное это белое, а белое это чёрное, и так десять раз по кругу, то вряд ли ей можно приписывать что-то высокоуровневое.

Тут ещё такой момент: если судья постоянно косячит, пусть и не из злого умысла, его не накажут, но и вряд ли куда-то продвинут.

А если ИИ будет постоянно косячить, то его заменят на другой. Это просто плохой инструмент, а не преступление.

Насчёт AI -- ну, мы опять обсуждаем какой-то достаточно далёкий AGI. Нынешние модели вообще "могут" что-либо условно.

Нынешние модели могут относительно много. И вы не забывайте что тот же ChatGPT это именно что ИИ чтобы "початить". То есть его создавали с другой целью и другими ограничениями/возможностями.

Sейчас никто пока и не делал "ИИ-судью". Но я бы не сказал что это вот прямо в принципе невозможно.

"ИИ-судью" создать возможно. Ровно им является механизм бана в Гугле, о котором я упоминал. Ваша метрика на 99% совпадает с метрикой жулика, до свидания. Не думаю, что в обозримом будущем у нас появится ИИ, способный глубоко копать причинно-следственные связи. Корреляции -- это сколько угодно, и их действительно хватит на массу практических задач. Вероятно, что и судебных. Если это кто-то перепроверять ещё будет на выходе, хорошо. Вот в гугле не перепроверяют. Или мартышки какие-то это делают, не знаю.

Ровно им является механизм бана в Гугле, о котором я упоминал.

Даже близко нет. К механизму бана в гугле ставятся совсем другие требования.

Ваша метрика на 99% совпадает с метрикой жулика, до свидания.

Ну так если вы не хотите чтобы ваш ИИ-судья так делал, то и не надо его так обучать.

Не думаю, что в обозримом будущем у нас появится ИИ, способный глубоко копать причинно-следственные связи.

А судьи у нас разве этим занимаются? Есть закон, есть набор улик, есть высказывания свидетелей и так далее и тому подобное. И на основании этого принимается решение.

А в отдельных странах это даже не судья делает, а просто какие-то рэндомные люди с улицы.

Юриспруденция -- это как медицина. Для типичного случая типа "порезал палец" вам и доктора не надо, дальше друзья и википедия, дальше участковый терапевт, и только если уже явно что-то нетривиальное, нужен специалист. Ну или "на всякий случай". В судебном деле тоже у каких-нибудь американцев до суда доходит сильно меньшая часть дел, остальное по примирению сторон или досудебному соглашению. Плюс мировые судьи, которые не очень высокой квалификации люди, но всякую мелочь разбирать могут без проблем. Наверно, это всё делать можно с помощью AI, но всё же нужен некий орган или человек ("auctoritas"), который данное решение утвердит и своей властью запустит на реализацию.

При этом в том же США есть Верховный суд, который на основании одной и той же "неизменной" Конституции ухитряется сначала терпеть рабство, потом не терпеть его, потом терпеть сегрегацию, потом не терпеть, потом межрасовые браки, аборты, геи и иже с ними. Получается, по крайней мере, с ростом уровня задачи цели усложняются нелинейно.

Вы уже немного начинаете смешивать в одну кучу разные вещи.

Тот же Верховный суд в США не просто "применяет" законы, п скорее "проверяет" законы на совместимость с конституцией и, что ещё важнее, с позицией общества. То есть он "по своему дизайну" должен принимать субъективные решения.

В теории наверное и его можно заменить на ИИ. Но это будет гораздо сложнее. И не факт что вообще имеет смысл.

А вот "обычные" суды в США(как впрочем и большинство других стран) имеют гораздо более простые задачи, плюс постоянно перегружены и те кто принимает решения далеко не всегда для этого подходят. То есть тут ИИ однозначно может очень улучшить ситуацию.

@rg_software а со мной вы так закончили ветку, будто исчерпали спор. Вы очень яро протестуете, но на деле, вам просто стоит лучше глубже погрузиться в LLM пространство сегодняшнего дня.

  1. LLM это не обязательно один слой. Могут сосуществовать несколько независимых экспертных слоев, дающих моральную, правовую, процессуальную оценку, выносящих решение, устраивающее все слои

  2. Спор с нами на тему политики(отсутствию контроля) не имеет смысла. В теории можно заставить ИИ никогда не сажать политиков, - это не предмет спора, я ратую за теоретическую возможность и эффективность реализации судьи-ИИ

  3. Сколько раз не повторяюсь, но вы СИЛЬНО недооцениваете способность ИИ, даже на одном слое копать причинно-следственные связи

  4. Сколько раз не повторяюсь, alignment, если упростить, это как раз способность ИИ "бояться последствий", зачастую получаемая "врожденно", с датасетом, позже вы буквально тренируете его бояться или не бояться определенных видов "ответа" и скажем предпочитать систематизированную мораль морали реальных судей(с детьми, зарплатами, нетерпимостью к азиатам)

  5. Тот ИИ, про который вы говорите из гугла может быть хоть броском кубика. Он имеет 0 отношения к теме LLM, потому, что гугл банит вас не из-за "неэффективного алгоритма", а потому, что ему на лично вас насрать. Если бы он должен был следовать морали/здравому смыслу/закону, все могло быть иначе

Сорри, не отследил. Ну это не спор, а некий обмен мнениями, интересный но немного непродуктивный, потому что мы же говорим об оценках. Вы видите так, я вижу этак, и даже не настаиваю на правоте -- могу ошибаться, естественно. Не думаю, что я чего-то там особое не знаю или недооцениваю. Мне по работе приходится довольно много читать по теме, и про всякие actor-critic, и тому подобное. Это всё понятно.

Я не думаю, что интеллект человеческого уровня недостижим, но нынешние (впечатляющие) успехи всё равно кажутся несколько раздутыми. У нас, человечества, проблема не с развитием технологий, а с оценкой сложности решения той или иной задачи.

Когда-то казалось, что для игры в шахматы нужен сильный интеллект, а получилось, что перебора вариантов достаточно. Аналогичным образом "закидали шапками" распознавание образов и много чего ещё.

Таким же образом сдвинуты наши метрики. Когда LLM проходит тест типа SAT, об этом пишут как о великом прорыве в ИИ, но ведь SAT разрабатывался для человека, исходя из его особенностей. Если человек бегло пишет по-китайски, мы предполагаем, что он знает китайский язык, иначе как бы он научился. Если AI пишет по-китайски, мы не знаем ничего -- может, там просто забит китайский шрифт и одна книжка на языке, и он просто её выводит на экран символ за символом.

Оценить AI не так просто, вот недавно была забавная статья о том, что ELIZA лучше Chat-GPT3.5 в тесте Тьюринга. Довольно большие пласты нашего интеллекта (и морали) достаются нам от рождения и по сути нигде не кодифицированы, так что даже не факт, что у нас есть датасеты для обучения, а даже если есть, не факт, что из них можно выудить именно те факторы, которые привели к тому или иному решению. Мы даже не знаем, насколько то или иное решение может считаться эталонно хорошим, чтобы на нём учиться.

Но это всё отдельная тема. Опять же, если есть такой инструмент -- да пусть будет, кто ж против. Всё равно AI не будет (наверно?) иметь власти приказать кого-то арестовать и препроводить в тюрьму. Значит, решение прочитает некий страж закона, и приказ будет исходить от него. Лично для меня этого уже вполне достаточно, а что где-то в глубине сидит AI, меня не очень напрягает.

Хех, ну все, можно считать уговорили вас на чипирование!
На мой взгляд, в обмене мнениями вы упускаете две детали, - первая, - как работает NLP в принципе, - модель не пытается думать, лишь генерирует токены, реагируя слоями alignment'a, чтобы направлять генерацию.

Это делает ее невероятно мощным инструментов в ряде задач, - например, - оценке текстов, выделении, систематизации информации и тп

Вторая деталь соответственно, - функция суда, - предоставление правовой оценки ситуации. У суда нет других основных функций, нет бесконечных моральных целей или второстепенных факторов. Список критериев при вынесении приговора должен быть максимально ограничен, понятен и обоснован.

В сути, суд - систематизирует(сбор документов/показаний), выделяет (определяет набор критериев) и дает оценку информации. Поэтому NLP так хорошо сработали бы для его задач.

Ну вот по сути да, вопрос в том, какие навыки нам кажутся достаточными для работы суда (и вообще решения разных задач). Мы теперь эмпирически знаем, что нейросеть может нарисовать картинку по описанию, ну или там перевести несложный текст. При этом также (эмпирически) знаем, что у неё проблемы, например, с тем, чтобы определить ситуацию, где ей не стоит уже выдавать ответы столь уверенно.

Но в целом, например, мне кажется, что пионеры AI 60-х сильно переоценивали сложность шахмат и недооценивали сложность машинного перевода. А может, просто грантов хотелось, вот и обещали с избытком.

Но в любом случае понятно, что 80%, если не 90% работы суда -- это рутина, которая и сейчас уже "автоматизирована" в том смысле, что типовое решение копипастится и подписывается.

Вы по сути говорите, что человеческая мораль непредсказуема.

Я не могу понять, в чем вообще ваш аргумент в защиту людей?

Закон де юре должен быть полностью предсказуем и если не по букве, то по духу. Правосудие должно быть слепо.

У судьи есть довольно большое пространство для манёвра при назначении конкретного наказания, например. То есть, допустим, виновен, наказание от сих до сих, но внутри уже на усмотрение человека. И это же тоже часть системы закона, фича, а не баг.

Тут нет защиты людей, тут неавтоматизируемая часть системы.

Ещё раз, что мешает llm основываясь на решениях судей или даже систематизированного понятия морали точно также подстраивать решение?

Если вы говорите абстрактно о некоем AGI, который умеет не хуже человека всё это делать -- ну да, разницы никакой. А если конкретно о нынешних моделях -- думаю, это не того уровня технология, чтобы "обобщать мораль".

Вы подменяете понятие "не хуже человека", подразумевая, что машина должна повторять его.

В реальности, конкретно для судебного процесса все, чтобы выполнять его эффективней человека уже есть.

Уменьшение или увеличение наказания должно быть обосновано, у судьи нет права уменьшать наказание за "красивые глаза". То есть мораль, которой должны следовать судьи можно систематизировать

Ну, я бы вот с какой стороны зашёл. Компьютер говорит: вот Вася тут своровал, но у него малолетние дети. Значит, базовая "ставка" 5 лет, скостим до трёх. Хорошо, но дальше любой адвокат скажет: давай подадим апелляцию, попробуем скостить до двух, может, прокатит.

И тут неважно, что говорит компьютер, потому что у него нет субъектности, если угодно. Если он скажет, что да, пусть будет 2 года, получается, что первый компьютер был неправ, и это уже прецедент. Если же он скажет, что нет, оставляем три, тот же адвокат может легко нарыть примеры, где снижали и до года, и никто на эту тему не возмущался.

Ну или, как вы говорите, "должно быть обосновано". Так вы даёте задание Chat-GPT, и он вам что угодно обоснует -- и почему надо дать год, и почему десятку.

Апелляция это процесс обработки дела в вышестоящей инстанции. Компетентность, допустимые время затраты и трактовка "духа закона" увеличивается, к ним из 12000 дел приходит 1200, в суд выше 120 и тд.

Если первая инстанция будет гораздо эффективнее, следующие будут не нужны, апелляцию вы будете подавать сразу в верховные суды. Получив суд, в котором у вас остаются только вопросы морали и корректности буквы закона, которые мы, как общество оставляем за собой, вы можете хоть референдумом судить

Резюмируя, ваш пример упускает то, зачем вообще нужна апелляция.

Если у вас, скажем, гражданское дело, то там спорят двое. Они судятся потому, что не могут решить вопрос между собой сами, и каждый думает, что он прав. Суд становится на сторону одного из них, второй автоматически недоволен и считает, что дело несправедливо. Если решал AI, то ощущение несправедливости только растёт, потому что решение принято неизвестно кем и неизвестно почему, так что далеко не факт, что будет меньше апелляций. Ну так или иначе, поживём-увидим, чего уж там

Но я как с 2019 года писал, так и продолжаю писать о том, что при всём желании, чисто физически невозможно сделать так, чтобы ИИ воспринял данные и принял ответственное решение на основе этих данных.

Спорное утверждение.
C 2005 года занимаюсь проверкой данных на соответствие законам. Не просто rule-based systems, хотя таких тоже масса.
На моей памяти масса компаний (крупных и стартапов) за эти годы появлялись и пробовали свои идеи. Все успешно failed.
Только с появлением LLM задача стала решаемой.

«выбрал отпуск в августе по религиозным причинам»

А что за религиозная причина брать отпуск в августе (спрашиваю из чистого интереса)?

Там рядом два православных праздника: Преображение (яблочный Спас) и Успение Богородицы. Некоторые православные предпочитают выбирать этот период для спокойного коротенького поста.

Нормальная статья, не обсуждаю отдельные пункты, но заставляет задуматься о человечности, о взаимодействии между людьми.

И хочется, чтобы в мире было больше добра.

А еще ИИ - это сейчас модно. Большие Ит менеджеры в компаниях только о нем и вещают. Хотят его везде повнедрять. Без разбора.

Хотя возможно им лично это каким-то образом выгодно - внедрить продукты от какой-то определенной компании.

ИИ для разработчика - весьма плохой советчик. Да, он может выдавать решение если оно стандартное и где-то уже было, но он не умеет сказать "нет, так сделать невозможно": всегда будет говорить, что да, пожалуйста, вот решение, выдумывать для этого несуществующие вызовы API, несуществующие функции и объекты, выдавать правдоподобные красиво выглядящие запросы, которые на самом деле не работают, и так далее. В итоге за ним надо все непрерывно проверять, и обычный гуглинг оказвается эффективнее.

.. но он не умеет сказать "нет, так сделать невозможно": всегда будет говорить, что да, пожалуйста" ..

Случайно напомнило о жителях одной южной страны, омываемой одноименным океаном и славящейся своей вовлеченостью в написание ПО

"Человеческий капитал" словосочетание которое вывели капиталисты. Ребята весьма не глупые. Они увидели потенциал человека и что именно человек сегодня является той сферой в которую можно и разумно инвестировать. Оборудование, здания, по все это обновляется. Люди тоже обновляются. Здание не вечно для того чтобы оно стояло его нужно поддерживать. Люди же могут сами себя поддерживать и потенциал у них в бесчисленное количество раз выше

Но пока увольнения под предлогом замены человека на AI — скорее, выходки чёрного пиара. Эффективностью там и не пахнет, картинки, не обработанные кожаными дизайнерами, откровенно плохи, а тексты и вовсе читать невозможно (если у вас есть мозг).

Согласен, AI ещё далек от совершенства. Но не соглашусь, что картинки плохи, взгляните на Midjourney или Leonardo AI — они уже создают потрясающие картинки, некоторые из них сложно отличить от реальных фото! И да, иногда тексты AI такие убедительные, что сложно отличить от человеческих. Технологии быстро развиваются, и кто знает, что будет дальше?
Следующие 2 года будут очень интересными...

Так грамотно и мудро расписано правильное положение дел.
Отличное понимание качественного рабочего процесса.
Аж захотелось у вас поработать 😊

Понравилось читать. Особенно про доверие и "работать надо не 8 часов, а головой". И как сложно переключиться, когда до этого работала "8 часов" под слежкой, а теперь можно так не делать!

Sign up to leave a comment.