Что делать, если вы с подозрением относитесь к числовым результатам в представленной рукописи, которую вы рецензируете?

В настоящее время я просматриваю статью и с подозрением отношусь к их числовым результатам. Я чувствую, что их результаты были немного изменены, чтобы продемонстрировать их превосходство по сравнению с другими сравнительными методами.

Я не могу назвать точную математическую причину, почему я думаю, что их численные результаты были изменены, но это так странно, что во всех 15 сценариях они были лучше. На самом деле, я почти уверен, что их метод лучше, чем его тесты, но не всегда. Возможно, они изменили некоторые сценарии.

Поскольку у меня нет математической причины, по которой я думаю, что некоторые из их номеров изменены, должен ли я запросить их компьютерный код и запустить их самостоятельно?

Я еще не спрашивал редактора. Должна ли я сначала спросить его? @EnergyNumbers
Если у вас достаточно много чисел и применим закон Бенфорда , вы можете использовать его для проверки данных. (Но помните, что вы всегда можете настроить данные так, чтобы они соответствовали закону Бенфорда.)

Ответы (6)

Дополняя другие ответы, либо в дополнение, либо помимо запроса кодов и запуска их самостоятельно, я не думаю, что это плохая идея - явно спросить авторов, что-то вроде этого:

Стандартные алгоритмы выполнения ( бла-бла-бла ), например, как в работах Refs. [1-3] ( подайте их в ), предполагают стандартную точность в типичных алгоритмах. Текущая работа, похоже, улучшила то же самое, что является сильным аргументом в пользу публикации. Тем не менее, авторы должны включить комментарий в рукопись, упомянув, какие изменения они внедрили в типичные алгоритмы, столь широко распространенные, что приводит к такой повышенной точности.

Мой жаргон, возможно, придется немного извратить здесь, но я думаю, что донес суть.

Поскольку это запрос в отчете рецензента, авторы обязаны сообщить подробности, и если есть какие-то манипуляции, они могут в конечном итоге быть раскрыты.

Надеюсь, это поможет :)

это хорошо @the-dark-side

Вы говорите, что у вас нет математической причины для подозрений. Но есть какая-то причина. Вы должны как можно лучше сформулировать это как причину в своем отчете.

Более того, я считаю вполне разумным запросить код и данные для воспроизведения результатов. Вероятно, у журнала есть политика в отношении воспроизводимых исследований, и вы могли бы сослаться на нее.

Я не могу сформулировать свое чувство и лицемерие. Я работал с этими методами раньше, они не всегда дают наилучшие результаты. В некоторых случаях более старый метод (его тесты) дает несколько лучшие результаты. @Дирк
@Electricman Я думаю, что вы довольно хорошо сформулировали их в своем вопросе, то есть со ссылкой на ваше удивление по поводу преобладания одного метода над другим.
Значит, я должен честно объяснить свою причину, а затем попросить их компьютерный код воспроизвести результаты? @fmark
«Я работал с этими методами раньше, они не всегда дают наилучшие результаты». Это означает, что редактор выбрал правильного человека для рецензирования статьи. Вы знаете область, и у вас есть практический опыт. Вы должны быть уверены в своей оценке, что показанные результаты слишком хороши, чтобы быть правдой.
Я думаю, что попрошу код, чтобы посмотреть, смогу ли я воспроизвести те же результаты. Однако, если бы их результаты были не слишком хороши, я бы не стал подозревать. Однако, независимо от этого случая, я думаю, что в целом очень сложно уловить манипуляцию результатами. Почему журналы не запрашивают компьютерный код так же, как и рукописи? Представьте, что есть методы A, B, C и предлагаемый метод X. Мы знаем, что метод X совершенно новый, а A, B, C — более старые методы. Таким образом, автор просто может поставить несколько неверных чисел для A, B, C, а затем показать, что его метод X лучше. Поскольку X совершенно новый, никто не заподозрит @WolfgangBangerth

Если есть какие-либо «стандартные» или широко используемые тестовые задачи для этого приложения, было бы разумно предложить их использовать (и дать ссылку на определения задач и другие документы, сообщающие о результатах, в ваших комментариях). Выборочный бенчмаркинг вряд ли является новым методом продаж и маркетинга, хотя можно надеяться, что академическая статья представит сбалансированную точку зрения.

Даже если вы можете позволить себе время и усилия, чтобы получить код и воспроизвести результаты, вы можете закончить дебаты «мои тестовые задачи сложнее, чем ваши тестовые задачи», которые могут быть неуместными, если только в статье не утверждается, что их метод всегда лучше . - и это было бы смелым заявлением в любой нетривиальной ситуации. Метод, который лучше «только» в некоторых обстоятельствах, вполне может быть достоин публикации.

«Даже если вы можете позволить себе время и усилия, чтобы получить код и воспроизвести результаты, вы можете получить ответ: «Мои тестовые задачи сложнее, чем ваши тестовые задачи» > Что, если я попрошу его/ее компьютерную модель данной задачи? ?Так что, если я не могу восстановить их результаты с помощью данного кода, это означает манипуляцию с результатами.... @alephzero

Я думаю, что для науки обязательно иметь открытый исходный код и открытые данные. Иначе это не наука. Использовать результаты вычислений, не заглядывая в код, — все равно, что доверять теореме, не требуя доказательства. Так что обязательно спрашивайте код.

Я согласен с вами. Журналы должны изменить свою политику и запросить компьютерные коды при подаче рукописи. Но это вообще не распространено. По крайней мере, со мной еще не случалось. @asdf
I think that it's mandatory for science to have open source code and opendata.Не обязательно, но должно быть.
Не обязательно перед публикацией или во время проверки, и это зависит от того, сколько кода и данных вы имеете в виду; было бы неразумно настаивать на использовании всего исходного кода, включая, например, рисование второстепенной диаграммы на с. 19. Как правило, рецензенты должны отфильтровывать наихудшее поведение, после чего другие исследователи после публикации могут попытаться получить доступ к данным и воспроизвести результаты. Если не могут (или находят аномалии), то пытаются переписываться с авторами. Если не получится, то могут опубликовать переписку/отчет в надзорные органы. Невоспроизводимость — это одно, фальсификация — другое.
Объяснение понижения: то, что я делаю, по-прежнему остается наукой, но нет, я не буду размещать медицинские записи людей на GitHub.

Вы заявляете, что у вас нет математических оснований полагать, что их числа изменены, но в большинстве случаев это не должно останавливать вас от рассмотрения применения закона Бенфорда для оценки цифр результатов (имейте в виду, что есть несколько случаев, когда это не подходит).

Редактировать: на http://benford.jplusplus.org/ есть быстрая бесплатная программа проверки, просто введите свои цифры.

Я не думаю, что они манипулируют результатами вручную. Кажется, они запустили алгоритм с высоким разрешением и выбрали лучшие результаты, в то время как другие методы были запущены с более низким разрешением. Это исследование зависит от выбранного разрешения. Но проверить стоит. Так как число всего 21, применим ли здесь Бенфорд? Как я могу их применить? есть ли какой софт для этого? @robbat2
Я добавил ссылку на сайт, где вы можете легко проверить это. Под разрешением, если вы имеете в виду разрешение экрана, имейте в виду, что распределение устройств было одной из вещей, которые НЕ соответствовали закону Бенфорда, потому что лишь немногие устройства имеют такое большое разрешение, а очень маленькое разрешение вызывало нечитаемый текст/макет.
Я имею в виду разрешение поиска в алгоритме оптимизации. @robbat2

Весь смысл публикации заключается в предоставлении информации для воспроизведения исследовательской работы. Поэтому отчет должен быть написан так, чтобы сделать работу достаточно ясной, чтобы оправдать улучшения. (Я бы хотел, чтобы это было именно так, чтобы поделиться им с общественностью). Вы можете обратиться к этому и запросить дополнительную информацию, чтобы ускорить процесс проверки, это может быть способ сделать код или сгенерировать/собрать данные. Все, что необходимо для его воспроизведения. очевидно, поделиться им гораздо проще, но тогда его следует прикрепить к газете или разместить в открытом доступе для читателей. рецензент и читатели должны быть на одной почве.