28 янв. 2025 г.

DeepSeek-R1

 Даже большая версия не справляется с задачей про 12 монет. ну доступна к обсуждению. соглашается с тем, что что-то не так.... но пока решила. второе взвешивание найти не может (в случае неравенства в случае первого взвешивания)


Кроме того болеет общей болезнью (от которой вылечилась Phi4)  - программы пишет хорошо, но считает плохо, ошибается в арифметике. В частности поручать сделать что-то численно нельзя. Только просить написать код.


Однако на мнгожители x^4 + 2 разложила без подсказок. и это не очень тяжелая модель 7b. Вывод устроен не так как раньше - сначала думает (и можно посмотреть как) - потом выдает ответ.

 ================================

проблема у всех copilots-помошников  в точности вычислений. Хроническая. из-за ошибки в вычислениях вынуждены проверять проверять и проверять и ... сомневаться. Лучшая тут Phi4, пока. непонятно почему подключение обычного калькулятора так трудно. результаты тут же существенно улучшатся. Это как у студентов, которых плохо учили арифметике в школе. Страдания и неудачи, хотя они и стараются и  учатся. Но мешает отсутствие базы.

Собственно, а почему нет базы?

Почему Phi 4 лучше?

 Да просто все - учителя не очень хорошие. Когда ai достигнет опредленного уровня развития, 

она будет учить лучше людей. В этом поинт.  Люди, особенно молодые ребята, не очень хорошие учителя.  Но очень хорошие ... и не хотят учить машину, они хотят учить людей. Тут еще традиция  образования. Эксперименты со школьными программами давали плачевные результаты как во Франции так и в СССР. Тут похожая ситуация. Не нужно торопиться запихивать в машину много. Нужно пихать качественно, как завещал ВИЛ: лучше меньше, да лучше.




Комментариев нет: