Рассказала сыну теорию струн. Пусть лучше от меня услышит, чем от пацанов во дворе. |
Погонял я тут ChatGPT и дикпик DeepSeek на вопросах из «Что? Где? Когда?» Оказывается, им ещё есть, куда развиваться. Они берут только от трети до половины, и в основном те, которые основаны на чистых знаниях. А те вопросы, которые требуют хоть немного пораскинуть мозгами, языковые модели — очевидно, из-за отсутствия мозгов — не берут.
Примеры большие, поэтому я вложу каждый под отдельный cut.
Пример первый:
( Развернуть )Пример второй:
( Развернуть )Пример третий:
( Развернуть )Пример четвёртый:
( Развернуть )Пример пятый, забавный:
( Развернуть )Пример шестой:
( Развернуть )Пример седьмой:
( Развернуть )Пример восьмой:
( Развернуть )Пример девятый и, наверное, последний:
( Развернуть )Финальный счёт: 5:4 в пользу ChatGPT.
Но, поверьте, на каждый вопрос, который брала хотя бы одна нейросеть, приходилось один-два вопроса, на которые ни одна из них верного ответа не давала. Иначе говоря — чтогдекогдастам можно не изобретать способы тайно консультироваться с нейросетями во время минуты обсуждения, для приобретения значительного преимущества в «Что? Где? Когда?» лингвистические модели на современном этапе своего технического развития бесполезны. При этом периодически ChatGPT даёт формально неправильный, но точный по сути ответ, — тогда как DeepSeek либо попадает идеально «в десятку», либо мажет «в молоко»; а такого, чтобы дать ответ, который можно было принять с натяжкой, у него (в моём эксперименте) не бывает.