Похоже, что некоторые ребята из Университета Северной Каролины (UNC) создали утилиту для расследования именно этого:
методология
TCP является классическим примером устаревшего протокола, который подвергается изменениям. К сожалению, оценка чего-то столь же фундаментального, как механизм обнаружения / восстановления потерь в TCP, не является всеобъемлющей. Наша цель - провести полную реалистичную оценку потерь TCP и их влияния на производительность TCP.
Я полагаюсь на пассивный анализ реальных TCP-соединений для достижения требуемого уровня детализации и реалистичности в моем анализе.
http://www.cs.unc.edu/~jasleen/Research-passivetcp.htm#Tool
Орудие труда
Цель этого инструмента - предоставить более полные и точные результаты для идентификации и характеристики несоответствующих сегментов, чем те, которые были предоставлены предыдущими инструментами, такими как tcpanaly, tcpflows, LEAST и Mystery. Наша методология классифицирует каждый сегмент, который появляется вне последовательности (OOS) в трассировке пакетов, в одну из следующих категорий: переупорядочение сети или повторная передача TCP, инициируемая одним из тайм-аутов, дублированные ACK, частичные ACK, выборочные ACK или неявное восстановление. Кроме того, каждая повторная передача также оценивается на предмет необходимости или нет.
Я не скажу, что это качество продукции. Ранее я создавал быстрые Perl-скрипты для хранения кортежей ip / port / ack в памяти, а затем сообщал о дублированных данных из результатов сканирования pcap, похоже, он обеспечивает более тщательный анализ.