为什么在 C++ 中从 stdin 读取行比 Python 慢得多?

Why is reading lines from stdin much slower in C++ than Python?

提问人: 提问时间:2/21/2012 最后编辑:28 revs, 13 users 46%JJC 更新时间:3/12/2022 访问量:311428

问:

我想比较使用 Python 和 C++ 从 stdin 读取字符串输入行的情况,并震惊地发现我的 C++ 代码运行速度比等效的 Python 代码慢一个数量级。由于我的 C++ 生锈了,而且我还不是专家 Pythonista,请告诉我我是否做错了什么,或者我是否误解了什么。


(TLDR 答案:包含语句:或改用。cin.sync_with_stdio(false)fgets

TLDR 结果:一直向下滚动到我问题的底部并查看表格。


C++ 代码:

#include <iostream>
#include <time.h>

using namespace std;

int main() {
    string input_line;
    long line_count = 0;
    time_t start = time(NULL);
    int sec;
    int lps;

    while (cin) {
        getline(cin, input_line);
        if (!cin.eof())
            line_count++;
    };

    sec = (int) time(NULL) - start;
    cerr << "Read " << line_count << " lines in " << sec << " seconds.";
    if (sec > 0) {
        lps = line_count / sec;
        cerr << " LPS: " << lps << endl;
    } else
        cerr << endl;
    return 0;
}

// Compiled with:
// g++ -O3 -o readline_test_cpp foo.cpp

Python 等价物:

#!/usr/bin/env python
import time
import sys

count = 0
start = time.time()

for line in  sys.stdin:
    count += 1

delta_sec = int(time.time() - start_time)
if delta_sec >= 0:
    lines_per_sec = int(round(count/delta_sec))
    print("Read {0} lines in {1} seconds. LPS: {2}".format(count, delta_sec,
       lines_per_sec))

以下是我的结果:

$ cat test_lines | ./readline_test_cpp
Read 5570000 lines in 9 seconds. LPS: 618889

$ cat test_lines | ./readline_test.py
Read 5570000 lines in 1 seconds. LPS: 5570000

我应该注意,我在 Mac OS X v10.6.8 (Snow Leopard) 和 Linux 2.6.32 (Red Hat Linux 6.2) 下都尝试过。前者是MacBook Pro,后者是非常强大的服务器,并不是说这太相关了。

$ for i in {1..5}; do echo "Test run $i at `date`"; echo -n "CPP:"; cat test_lines | ./readline_test_cpp ; echo -n "Python:"; cat test_lines | ./readline_test.py ; done
Test run 1 at Mon Feb 20 21:29:28 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 2 at Mon Feb 20 21:29:39 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 3 at Mon Feb 20 21:29:50 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 4 at Mon Feb 20 21:30:01 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 5 at Mon Feb 20 21:30:11 EST 2012
CPP:   Read 5570001 lines in 10 seconds. LPS: 557000
Python:Read 5570000 lines in  1 seconds. LPS: 5570000

微小的基准测试附录和回顾

为了完整起见,我想我会使用原始(同步的)C++ 代码更新同一框中同一文件的读取速度。同样,这是针对快速磁盘上的 100M 行文件。以下是几种解决方案/方法的比较:

实现 每秒行数
python(默认) 3,571,428
CIN (默认/幼稚) 819,672
CIN (不同步) 12,500,000
FGETS 14,285,714
WC(不公平比较) 54,644,808
Python C++ 基准测试 IOSTREAM GetLine

评论

21赞 Vaughn Cato 2/21/2012
问题是与 stdio 同步 - 请参阅我的答案。
27赞 Xeo 2/22/2012
由于似乎没有人提到为什么你会得到一个额外的C++行:不要测试cin.eof()!!将调用放入“if”语句中。getline
27赞 jfs 2/27/2012
wc -l速度很快,因为它一次读取多行流(可能是组合)。Python 结果处于相同的数量级,例如,wc-l.pyfread(stdin)/memchr('\n')
0赞 Gabriel Staples 2/5/2022
如果您需要高分辨率时间戳来测试较小的样本量,请参阅此处的 C、此处的 C++此处的 Python
0赞 FeRD 12/8/2022
无需猜测如何获取结果:代码显示,在 coreutils 9.0 中,有两种实现:一种是一次缓冲读取 16KiB,一种是短行,长行使用简单的字符串遍历(>= 15 个字符/行平均值)。第二个是基于 AVX2 的,它使用并行累加器,它使用 和 填充,然后使用 和 求和并提取计数。是的,它是为了快速而构建的。wc -lwcrawmemchr()__mm256i_mm256_cmpeq_epi8()_mm256_sub_epi8()_mm256_sad_epu8()_mm256_extract_epi16()

答:

14赞 J.N. 2/21/2012 #1

答案的第一个要素是:慢。该死的慢。如下图所示,我获得了巨大的性能提升,但它仍然比 Python 慢两倍。<iostream>scanf

#include <iostream>
#include <time.h>
#include <cstdio>

using namespace std;

int main() {
    char buffer[10000];
    long line_count = 0;
    time_t start = time(NULL);
    int sec;
    int lps;

    int read = 1;
    while(read > 0) {
        read = scanf("%s", buffer);
        line_count++;
    };
    sec = (int) time(NULL) - start;
    line_count--;
    cerr << "Saw " << line_count << " lines in " << sec << " seconds." ;
    if (sec > 0) {
        lps = line_count / sec;
        cerr << "  Crunch speed: " << lps << endl;
    } 
    else
        cerr << endl;
    return 0;
}
1933赞 Vaughn Cato 2/21/2012 #2

TL的;dr:因为 C++ 中的默认设置不同,需要更多的系统调用。

默认情况下,它与 stdio 同步,这会导致它避免任何输入缓冲。如果将它添加到主节点的顶部,则应该会看到更好的性能:cin

std::ios_base::sync_with_stdio(false);

通常,当输入流被缓冲时,不是一次读取一个字符,而是以更大的块读取流。这减少了系统调用的次数,而系统调用通常相对昂贵。但是,由于 based 和 通常具有单独的实现,因此具有单独的缓冲区,因此如果两者一起使用,可能会导致问题。例如:FILE*stdioiostreams

int myvalue1;
cin >> myvalue1;
int myvalue2;
scanf("%d",&myvalue2);

如果读取的输入多于实际需要的输入,则第二个整数值将不可用于函数,该函数具有自己的独立缓冲区。这将导致意想不到的结果。cinscanf

为避免这种情况,默认情况与 同步。实现此目的的一种常见方法是根据需要使用函数一次读取一个字符。不幸的是,这会带来很多开销。对于少量输入,这不是一个大问题,但是当您读取数百万行时,性能损失是显着的。stdiocinstdio

幸运的是,库设计人员认为,如果您知道自己在做什么,也应该能够禁用此功能以提高性能,因此他们提供了sync_with_stdio方法。从此链接(强调后加):

如果关闭同步,则允许 C++ 标准流独立缓冲其 I/O,在某些情况下可能会快得多

评论

177赞 Karl Knechtel 2/21/2012
这应该在顶部。这几乎可以肯定是正确的。答案不能在于用调用代替读取,因为这根本无法像 Python 那样做那么多工作。Python 必须为字符串分配内存,可能多次,因为现有分配被认为不充分 - 与 的 C++ 方法完全相同。这个任务几乎可以肯定是 I/O 绑定的,并且有太多的 FUD 关于在 C++ 中创建对象或单独使用对象的成本。fscanfstd::stringstd::string<iostream>
67赞 JJC 2/21/2012
是的,在我原来的 while 循环上方添加这一行可以加快代码的速度,甚至超越 python。我即将发布结果作为最终编辑。 再次感谢!
70赞 John Zwinck 1/21/2015
请注意,这是一个静态成员函数,对任何流对象(例如)调用此函数都会打开或关闭所有标准 iostream 对象的同步。sync_with_stdio()cin
17赞 davinchi 2/21/2012 #3

在第二个示例中(带有 ),原因仍然较慢可能是因为解析字符串并查找任何空格字符(空格、制表符、换行符)。scanf()scanf("%s")

另外,是的,CPython 会进行一些缓存以避免硬盘读取。

109赞 karunski 2/21/2012 #4

我在 Mac 上使用 g++ 在我的计算机上复制了原始结果。

在循环之前将以下语句添加到 C++ 版本,使其与 Python 版本内联:while

std::ios_base::sync_with_stdio(false);
char buffer[1048576];
std::cin.rdbuf()->pubsetbuf(buffer, sizeof(buffer));

sync_with_stdio将速度提高到 2 秒,并设置更大的缓冲区将其降低到 1 秒。

评论

130赞 Matthieu M. 2/21/2012
我也会避免在堆栈上设置 1MB 的缓冲区。它可能导致堆栈溢出(尽管我想这是一个讨论它的好地方!
15赞 SEK 1/14/2014
Matthieu,Mac 默认使用 8MB 进程堆栈。Linux 使用每个线程 4MB 的默认值 IIRC。对于一个转换堆栈深度相对较浅的输入的程序来说,1MB 并不是一个大问题。但更重要的是,如果缓冲区超出范围,std::cin 将丢弃堆栈。
26赞 Étienne 3/15/2014
@SEK Windows 默认堆栈大小为 1MB。
12赞 José Ernesto Lara Rodríguez 2/22/2012 #5

好吧,我看到在你的第二个解决方案中,你从 切换到 ,这是我要给你的第一个建议(是 sloooooooooow)。现在,如果从 切换到 ,您将看到性能的另一个提升:是字符串输入最快的 C++ 函数。cinscanfcinscanffgetsfgets

顺便说一句,不知道那个同步的事情,很好。但你仍然应该尝试.fgets

21赞 Gregg 3/12/2012 #6

顺便说一下,C++ 版本的行数比 Python 版本的行数大 1 的原因是,只有在尝试读取超出 eof 的次数时才会设置 eof 标志。因此,正确的循环是:

while (cin) {
    getline(cin, input_line);

    if (!cin.eof())
        line_count++;
};

评论

81赞 Jonathan Wakely 5/5/2012
真正正确的循环是:while (getline(cin, input_line)) line_count++;
218赞 2mia 3/12/2012 #7

只是出于好奇,我看了一下引擎盖下发生了什么,并且在每次测试中都使用了 dtruss/srace

C++

./a.out < in
Saw 6512403 lines in 8 seconds.  Crunch speed: 814050

系统调用sudo dtruss -c ./a.out < in

CALL                                        COUNT
__mac_syscall                                   1
<snip>
open                                            6
pread                                           8
mprotect                                       17
mmap                                           22
stat64                                         30
read_nocancel                               25958

./a.py < in
Read 6512402 lines in 1 seconds. LPS: 6512402

系统调用sudo dtruss -c ./a.py < in

CALL                                        COUNT
__mac_syscall                                   1
<snip>
open                                            5
pread                                           8
mprotect                                       17
mmap                                           21
stat64                                         29
48赞 Stu 3/14/2012 #8

getline,流运算符,如果您不关心文件加载时间或加载小文本文件,则会很方便。但是,如果性能是你关心的,你真的应该把整个文件缓冲到内存中(假设它适合)。scanf

下面是一个示例:

//open file in binary mode
std::fstream file( filename, std::ios::in|::std::ios::binary );
if( !file ) return NULL;

//read the size...
file.seekg(0, std::ios::end);
size_t length = (size_t)file.tellg();
file.seekg(0, std::ios::beg);

//read into memory buffer, then close it.
char *filebuf = new char[length+1];
file.read(filebuf, length);
filebuf[length] = '\0'; //make it null-terminated
file.close();

如果需要,可以在该缓冲区周围包装一个流,以便更方便地访问,如下所示:

std::istrstream header(&filebuf[0], length);

此外,如果您控制文件,请考虑使用平面二进制数据格式而不是文本。读取和写入更可靠,因为您不必处理空格的所有歧义。它也更小,解析速度更快。

评论

0赞 ljleb 7/18/2022
尽管我对自己的知识没有足够的信心在这里为它编写代码,但我只想提到内存映射作为将文件读入内存的另一种替代方法。请参阅 MMAP,了解特定于 Linux 的 API。
27赞 Petter #9

到目前为止,以下代码对我来说比此处发布的其他代码更快: (Visual Studio 2013,64 位,500 MB 文件,行长统一在 [0, 1000])。

const int buffer_size = 500 * 1024;  // Too large/small buffer is not good.
std::vector<char> buffer(buffer_size);
int size;
while ((size = fread(buffer.data(), sizeof(char), buffer_size, stdin)) > 0) {
    line_count += count_if(buffer.begin(), buffer.begin() + size, [](char ch) { return ch == '\n'; });
}

它比我所有的 Python 尝试都高出 2 倍以上。

214赞 7 revs, 6 users 85%Bela Lubkin #10

我在这里落后了几年,但是:

在原始帖子的“编辑 4/5/6”中,您使用的是以下结构:

$ /usr/bin/time cat big_file | program_to_benchmark

这在几个不同的方面是错误的:

  1. 您实际上是在计时执行,而不是您的基准测试。显示的 'user' 和 'sys' CPU 使用率是 的 ,而不是基准测试程序。更糟糕的是,“实时”时间也不一定准确。根据本地操作系统中管道的实现和管道的实现,可能会写入最终的巨型缓冲区,并在读取器进程完成其工作之前很久就退出。cattimecatcatcat

  2. 使用是不必要的,实际上适得其反;您正在添加活动部件。如果你在一个足够老的系统上(即使用单个CPU,并且--在某些代的计算机中--I/O比CPU快),那么仅仅是运行的事实就可以大大影响结果。您还受到任何输入和输出缓冲以及其他处理可能执行的操作。 (如果我是 Randal Schwartz,这可能会为您赢得“无用的猫”奖。catcatcat

更好的结构是:

$ /usr/bin/time program_to_benchmark < big_file

在此语句中,它是打开big_file的 shell,将其作为已经打开的文件描述符传递给您的程序(实际上,然后将程序作为子进程执行到该程序)。100% 的文件读取完全由您尝试进行基准测试的程序负责。这可以让您真正了解其性能,而不会出现虚假的复杂性。time

我将提到两个可能但实际上错误的“修复”,它们也可以考虑(但我以不同的方式“编号”它们,因为这些不是原始帖子中错误的东西):

一个。你可以通过只计时你的程序来“修复”这个问题:

$ cat big_file | /usr/bin/time program_to_benchmark

B. 或者通过对整个管道进行计时:

$ /usr/bin/time sh -c 'cat big_file | program_to_benchmark'

这些是错误的,原因与#2相同:它们仍在不必要地使用。我提到它们有几个原因:cat

  • 对于那些对 POSIX shell 的 I/O 重定向功能不完全满意的人来说,它们更“自然”

  • 在某些情况下,可能需要(例如:要读取的文件需要某种权限才能访问并且您不希望将该权限授予要进行基准测试的程序:catsudo cat /dev/sda | /usr/bin/time my_compression_test --no-output)

  • 实际上,在现代机器上,管道中添加的内容可能没有实际意义。cat

但我说最后一件事时有些犹豫。如果我们检查“编辑 5”中的最后一个结果——

$ /usr/bin/time cat temp_big_file | wc -l
0.01user 1.34system 0:01.83elapsed 74%CPU ...

-- 这声称在测试期间消耗了 74% 的 CPU;事实上,1.34/1.83 大约是 74%。也许是一连串:cat

$ /usr/bin/time wc -l < temp_big_file

本来只需要剩下的 .49 秒!可能不是:这里必须支付从“磁盘”(实际上是缓冲区缓存)传输文件的系统调用(或等效调用),以及将它们传送到的管道写入。正确的测试仍然需要执行这些调用;只有 write-to-pipe 和 read-from-pipe 调用会被保存,而且这些调用应该非常便宜。catread()wcread()

不过,我预测您将能够测量 和 之间的差异并找到明显的(2 位百分比)差异。每个较慢的测试都会在绝对时间内付出类似的代价;然而,这仅占其较大总时间的一小部分。cat file | wc -lwc -l < file

事实上,我在 Linux 3.13 (Ubuntu 14.04) 系统上用一个 1.5 GB 的垃圾文件做了一些快速测试,获得了这些结果(这些实际上是“三局两胜”的结果;当然,在启动缓存之后):

$ time wc -l < /tmp/junk
real 0.280s user 0.156s sys 0.124s (total cpu 0.280s)
$ time cat /tmp/junk | wc -l
real 0.407s user 0.157s sys 0.618s (total cpu 0.775s)
$ time sh -c 'cat /tmp/junk | wc -l'
real 0.411s user 0.118s sys 0.660s (total cpu 0.778s)

请注意,这两个管道结果声称花费的 CPU 时间(用户 + 系统)比实际挂钟时间多。这是因为我使用的是 shell (bash) 的内置“time”命令,该命令可以识别管道;我在一台多核机器上,管道中的独立进程可以使用单独的内核,积累 CPU 时间的速度比实时更快。使用我看到的 CPU 时间比实时时间小 -- 表明它只能在其命令行上对传递给它的单个管道元素进行计时。此外,shell 的输出提供毫秒,而只提供百分之一秒。/usr/bin/time/usr/bin/time

因此,在效率水平上,产生了巨大的差异:409 / 283 = 1.453 或 45.3% 的实时性,而 775 / 280 = 2.768,或使用的 CPU 增加了 177%!在我的随机测试盒上,它当时就在那里。wc -lcat

我应该补充一点,这些测试风格之间至少还有一个其他显着差异,我不能说这是好处还是缺点;你必须自己决定:

当您运行 时,您的程序正在接收来自管道的输入,其速度恰好与 发送的速度相同,并且块不大于 由 写入的块。cat big_file | /usr/bin/time my_programcatcat

当您运行时,您的程序会收到实际文件的打开文件描述符。您的程序(在许多情况下,编写它所用语言的 I/O 库)在显示引用常规文件的文件描述符时可能会采取不同的操作。它可用于将输入文件映射到其地址空间,而不是使用显式系统调用。这些差异对基准测试结果的影响可能比运行二进制文件的小成本大得多。/usr/bin/time my_program < big_filemmap(2)read(2)cat

当然,如果同一程序在两种情况下的性能明显不同,这是一个有趣的基准结果。它表明,程序或其 I/O 库确实在做一些有趣的事情,比如使用 .因此,在实践中,双向运行基准测试可能是件好事;也许通过一些小因素来打折结果,以“原谅”运行本身的成本。mmap()catcat

评论

42赞 JJC 5/9/2017
哇,这真是太有见地了!虽然我知道 cat 对于将输入馈送到程序的 stdin 是不必要的,并且首选< shell 重定向,但我通常坚持使用 cat,因为当我推理管道时,前一种方法在视觉上保留了从左到右的数据流。我发现在这种情况下,性能差异可以忽略不计。但是,我很感激你教育我们,贝拉。
21赞 Bela Lubkin 5/11/2017
重定向在早期阶段从 shell 命令行中解析出来,如果它提供从左到右的流看起来更令人愉悦,则允许您执行以下操作之一: 这应该适用于任何 POSIX shell(即不是“csh”,我不确定像“rc”这样的异国情调:)$ < big_file time my_program$ time < big_file my_program