如何根据列值从 DataFrame 中选择行?

How do I select rows from a DataFrame based on column values?

提问人:szli 提问时间:6/13/2013 最后编辑:cottontailszli 更新时间:9/26/2023 访问量:6156172

问:

如何根据 Pandas 中某列中的值从 DataFrame 中选择行?

在 SQL 中,我会使用:

SELECT *
FROM table
WHERE column_name = some_value
Python Pandas 数据帧

评论


答:

6362赞 unutbu 6/13/2013 #1

要选择列值等于标量的行,请使用:some_value==

df.loc[df['column_name'] == some_value]

若要选择列值位于可迭代对象中的行,请使用:some_valuesisin

df.loc[df['column_name'].isin(some_values)]

将多个条件与以下因素相结合:&

df.loc[(df['column_name'] >= A) & (df['column_name'] <= B)]

请注意括号。由于 Python 的运算符优先级规则,绑定比 和 更紧密。因此,最后一个示例中的括号是必要的。不带括号&<=>=

df['column_name'] >= A & df['column_name'] <= B

解析为

df['column_name'] >= (A & df['column_name']) <= B

这导致 Series 的 Truth 值是模棱两可的错误


要选择列值不等于的行,请使用:some_value!=

df.loc[df['column_name'] != some_value]

返回一个布尔序列,因此要选择值不在 中的行,请使用以下命令否定布尔序列:isinsome_values~

df = df.loc[~df['column_name'].isin(some_values)] # .loc is not in-place replacement

例如

import pandas as pd
import numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split(),
                   'C': np.arange(8), 'D': np.arange(8) * 2})
print(df)
#      A      B  C   D
# 0  foo    one  0   0
# 1  bar    one  1   2
# 2  foo    two  2   4
# 3  bar  three  3   6
# 4  foo    two  4   8
# 5  bar    two  5  10
# 6  foo    one  6  12
# 7  foo  three  7  14

print(df.loc[df['A'] == 'foo'])

收益 率

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

如果要包含多个值,请将它们放在 列表(或更一般地说,任何可迭代对象)并使用:isin

print(df.loc[df['B'].isin(['one','three'])])

收益 率

     A      B  C   D
0  foo    one  0   0
1  bar    one  1   2
3  bar  three  3   6
6  foo    one  6  12
7  foo  three  7  14

但是请注意,如果您希望多次执行此操作,则更有效 首先创建一个索引,然后使用:df.loc

df = df.set_index(['B'])
print(df.loc['one'])

收益 率

       A  C   D
B              
one  foo  0   0
one  bar  1   2
one  foo  6  12

或者,要包含索引中的多个值,请使用:df.index.isin

df.loc[df.index.isin(['one','two'])]

收益 率

       A  C   D
B              
one  foo  0   0
one  bar  1   2
two  foo  2   4
two  foo  4   8
two  bar  5  10
one  foo  6  12

评论

3赞 user3871 1/31/2023
如果您没有列标签,即按列索引,您知道如何做到这一点吗?例如,返回 Col 0 = “some value” 的行。 不起作用,给出错误虽然似乎有效。df.iloc[df[0] == some_value]Cannot index by location index with a non-integer key.df.loc[df.iloc[:, 0] == 'some_value']
1赞 hobs 7/16/2023
@user3871正如错误消息所解释的那样(以及答案中的示例所示),您需要在...是一个布尔级数(这是二进制运算符对一对返回。所有 s 都有列标签,即使您从未设置过任何列标签。你可以找出他们是什么.因此,无论您在哪里都可以使用.df.loc[...]==SeriesDataFramedf.columnsdf[0]df[df.columns[0]]
31赞 DataByDavid 6/13/2013 #2

这是一个简单的例子

from pandas import DataFrame

# Create data set
d = {'Revenue':[100,111,222], 
     'Cost':[333,444,555]}
df = DataFrame(d)


# mask = Return True when the value in column "Revenue" is equal to 111
mask = df['Revenue'] == 111

print mask

# Result:
# 0    False
# 1     True
# 2    False
# Name: Revenue, dtype: bool


# Select * FROM df WHERE Revenue = 111
df[mask]

# Result:
#    Cost    Revenue
# 1  444     111
352赞 imolit 7/8/2015 #3

TL的;博士

熊猫相当于

select * from table where column_name = some_value

table[table.column_name == some_value]

多种条件:

table[(table.column_name == some_value) | (table.column_name2 == some_value2)]

table.query('column_name == some_value | column_name2 == some_value2')

代码示例

import pandas as pd

# Create data set
d = {'foo':[100, 111, 222],
     'bar':[333, 444, 555]}
df = pd.DataFrame(d)

# Full dataframe:
df

# Shows:
#    bar   foo
# 0  333   100
# 1  444   111
# 2  555   222

# Output only the row(s) in df where foo is 222:
df[df.foo == 222]

# Shows:
#    bar  foo
# 2  555  222

在上面的代码中,它是根据列值提供行的行,在本例中。df[df.foo == 222]222

多种情况也是可能的:

df[(df.foo == 222) | (df.bar == 444)]
#    bar  foo
# 1  444  111
# 2  555  222

但是在这一点上,我建议使用查询函数,因为它不那么冗长,并且会产生相同的结果:

df.query('foo == 222 | bar == 444')
94赞 fredcallaway 2/9/2016 #4

我发现前面答案的语法是多余的,很难记住。Pandas 在 v0.13 中引入了该方法,我更喜欢它。对于您的问题,您可以做.query()df.query('col == val')

转载自 query() 方法(实验性):

In [167]: n = 10

In [168]: df = pd.DataFrame(np.random.rand(n, 3), columns=list('abc'))

In [169]: df
Out[169]:
          a         b         c
0  0.687704  0.582314  0.281645
1  0.250846  0.610021  0.420121
2  0.624328  0.401816  0.932146
3  0.011763  0.022921  0.244186
4  0.590198  0.325680  0.890392
5  0.598892  0.296424  0.007312
6  0.634625  0.803069  0.123872
7  0.924168  0.325076  0.303746
8  0.116822  0.364564  0.454607
9  0.986142  0.751953  0.561512

# pure python
In [170]: df[(df.a < df.b) & (df.b < df.c)]
Out[170]:
          a         b         c
3  0.011763  0.022921  0.244186
8  0.116822  0.364564  0.454607

# query
In [171]: df.query('(a < b) & (b < c)')
Out[171]:
          a         b         c
3  0.011763  0.022921  0.244186
8  0.116822  0.364564  0.454607

您还可以通过在前面加上 .@

exclude = ('red', 'orange')
df.query('color not in @exclude')
20赞 TuanDT 11/18/2016 #5

添加:您还可以使用具有特定值的指定列创建一个新的数据框。例如,df.groupby('column_name').get_group('column_desired_value').reset_index()

import pandas as pd
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split()})
print("Original dataframe:")
print(df)

b_is_two_dataframe = pd.DataFrame(df.groupby('B').get_group('two').reset_index()).drop('index', axis = 1) 
#NOTE: the final drop is to remove the extra index column returned by groupby object
print('Sub dataframe where B is two:')
print(b_is_two_dataframe)

运行此命令可提供:

Original dataframe:
     A      B
0  foo    one
1  bar    one
2  foo    two
3  bar  three
4  foo    two
5  bar    two
6  foo    one
7  foo  three
Sub dataframe where B is two:
     A    B
0  foo  two
1  foo  two
2  bar  two

评论

0赞 ali bakhtiari 1/4/2023
而不是 ' .drop('index', axis = 1)' 并创建一个新的数据帧,您可以简单地设置drop=True.reset_index()
36赞 shivsn 7/6/2017 #6

使用 numpy.where 可以获得更快的结果。

例如,使用 unubtu 的设置 -

In [76]: df.iloc[np.where(df.A.values=='foo')]
Out[76]: 
     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

时序比较:

In [68]: %timeit df.iloc[np.where(df.A.values=='foo')]  # fastest
1000 loops, best of 3: 380 µs per loop

In [69]: %timeit df.loc[df['A'] == 'foo']
1000 loops, best of 3: 745 µs per loop

In [71]: %timeit df.loc[df['A'].isin(['foo'])]
1000 loops, best of 3: 562 µs per loop

In [72]: %timeit df[df.A=='foo']
1000 loops, best of 3: 796 µs per loop

In [74]: %timeit df.query('(A=="foo")')  # slowest
1000 loops, best of 3: 1.71 ms per loop
807赞 piRSquared 9/12/2017 #7

有几种方法可以从 Pandas 数据帧中选择行:

  1. 布尔索引 (df[df['col'] == value]
  2. 位置索引 (df.iloc[...]
  3. 标签索引 (df.xs(...))
  4. df.query(...)应用程序接口

下面我向您展示每种方法的示例,并建议何时使用某些技术。假设我们的条件是列'A' == 'foo'

(关于性能的注意:对于每种基本类型,我们可以通过使用 Pandas API 来保持简单,或者我们可以在 API 之外冒险,通常是进入 NumPy,并加快速度。


设置

我们需要做的第一件事是确定一个条件,该条件将作为我们选择行的标准。我们将从 OP 的案例开始,并包括一些其他常见用例。column_name == some_value

借用@unutbu:

import pandas as pd, numpy as np

df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split(),
                   'C': np.arange(8), 'D': np.arange(8) * 2})

1. 布尔索引

...布尔索引需要找到每行列的真值等于 ,然后使用这些真值来标识要保留的行。通常,我们将这个系列命名为真值数组,.我们也会在这里这样做。'A''foo'mask

mask = df['A'] == 'foo'

然后,我们可以使用此掩码对数据帧进行切片或索引

df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

这是完成此任务的最简单方法之一,如果性能或直观性不是问题,这应该是您选择的方法。但是,如果性能是一个问题,那么您可能需要考虑创建 .mask


2. 位置索引

位置索引 () 有其用例,但这不是其中之一。为了确定切片的位置,我们首先需要执行与上面相同的布尔分析。这让我们执行一个额外的步骤来完成相同的任务。df.iloc[...]

mask = df['A'] == 'foo'
pos = np.flatnonzero(mask)
df.iloc[pos]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

3. 标签索引

标签索引可能非常方便,但在这种情况下,我们又在做更多的工作,没有任何好处

df.set_index('A', append=True, drop=False).xs('foo', level=1)

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

4. df.query() 接口

PD的。DataFrame.query 是执行此任务的一种非常优雅/直观的方式,但通常速度较慢。但是,如果您注意以下时间,对于大数据,查询非常有效。比标准方法更重要,并且与我的最佳建议相似。

df.query('A == "foo"')

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

我的偏好是使用Boolean mask

可以通过修改我们创建 .Booleanmask

mask 备选方案 1 使用底层 NumPy 数组并放弃创建另一个 pd 的开销。系列

mask = df['A'].values == 'foo'

最后,我将展示更完整的时间测试,但只需看一下使用示例数据帧获得的性能提升。首先,我们看一下创建mask

%timeit mask = df['A'].values == 'foo'
%timeit mask = df['A'] == 'foo'

5.84 µs ± 195 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
166 µs ± 4.45 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

使用 NumPy 数组计算 的速度要快 ~ 30 倍。这在一定程度上是由于 NumPy 评估通常更快。这在一定程度上也是由于缺乏构建索引和相应对象所需的开销。maskpd.Series

接下来,我们将看看用一个与另一个进行切片的时机。mask

mask = df['A'].values == 'foo'
%timeit df[mask]
mask = df['A'] == 'foo'
%timeit df[mask]

219 µs ± 12.3 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
239 µs ± 7.03 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

性能提升并不那么明显。我们将看看这是否能通过更强大的测试。


面罩替代品 2我们也可以重建数据框。在重建数据帧时有一个很大的警告 - 在这样做时必须注意!dtypes

而不是我们会这样做df[mask]

pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)

如果数据帧是混合类型,我们的示例就是这样,那么当我们得到结果数组时,结果是 ,因此,新数据帧的所有列都将是 。因此,需要并扼杀任何潜在的性能收益。df.valuesdtypeobjectdtypeobjectastype(df.dtypes)

%timeit df[m]
%timeit pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)

216 µs ± 10.4 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
1.43 ms ± 39.6 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

但是,如果数据框不是混合类型,则这是一种非常有用的方法。

鉴于

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))

d1

   A  B  C  D  E
0  0  2  7  3  8
1  7  0  6  8  6
2  0  2  0  4  9
3  7  3  2  4  3
4  3  6  7  7  4
5  5  3  7  5  9
6  8  7  6  4  7
7  6  2  6  6  5
8  2  8  7  5  8
9  4  7  6  1  5

%%timeit
mask = d1['A'].values == 7
d1[mask]

179 µs ± 8.73 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

%%timeit
mask = d1['A'].values == 7
pd.DataFrame(d1.values[mask], d1.index[mask], d1.columns)

87 µs ± 5.12 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

我们将时间缩短了一半。


掩膜替代品 3

@unutbu还向我们展示了如何使用来解释一组值中的每个元素。如果我们的值集是一个值的集合,即 .但如果需要,它也可以泛化为包括更大的值集。事实证明,即使它是一个更通用的解决方案,这仍然非常快。唯一真正的损失是那些不熟悉这个概念的人的直观性。pd.Series.isindf['A']'foo'

mask = df['A'].isin(['foo'])
df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

但是,和以前一样,我们可以利用 NumPy 来提高性能,同时几乎不牺牲任何东西。我们将使用np.in1d

mask = np.in1d(df['A'].values, ['foo'])
df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

定时

我还将包括其他文章中提到的其他概念以供参考。

代码如下

此表中的每一都代表一个不同长度的数据框,我们在该数据帧上测试每个函数。每列显示所花费的相对时间,最快的函数的基本索引为 。1.0

res.div(res.min())

                         10        30        100       300       1000      3000      10000     30000
mask_standard         2.156872  1.850663  2.034149  2.166312  2.164541  3.090372  2.981326  3.131151
mask_standard_loc     1.879035  1.782366  1.988823  2.338112  2.361391  3.036131  2.998112  2.990103
mask_with_values      1.010166  1.000000  1.005113  1.026363  1.028698  1.293741  1.007824  1.016919
mask_with_values_loc  1.196843  1.300228  1.000000  1.000000  1.038989  1.219233  1.037020  1.000000
query                 4.997304  4.765554  5.934096  4.500559  2.997924  2.397013  1.680447  1.398190
xs_label              4.124597  4.272363  5.596152  4.295331  4.676591  5.710680  6.032809  8.950255
mask_with_isin        1.674055  1.679935  1.847972  1.724183  1.345111  1.405231  1.253554  1.264760
mask_with_in1d        1.000000  1.083807  1.220493  1.101929  1.000000  1.000000  1.000000  1.144175

您会注意到,最快的时间似乎在 和 之间共享。mask_with_valuesmask_with_in1d

res.T.plot(loglog=True)

Enter image description here

功能

def mask_standard(df):
    mask = df['A'] == 'foo'
    return df[mask]

def mask_standard_loc(df):
    mask = df['A'] == 'foo'
    return df.loc[mask]

def mask_with_values(df):
    mask = df['A'].values == 'foo'
    return df[mask]

def mask_with_values_loc(df):
    mask = df['A'].values == 'foo'
    return df.loc[mask]

def query(df):
    return df.query('A == "foo"')

def xs_label(df):
    return df.set_index('A', append=True, drop=False).xs('foo', level=-1)

def mask_with_isin(df):
    mask = df['A'].isin(['foo'])
    return df[mask]

def mask_with_in1d(df):
    mask = np.in1d(df['A'].values, ['foo'])
    return df[mask]

测试

res = pd.DataFrame(
    index=[
        'mask_standard', 'mask_standard_loc', 'mask_with_values', 'mask_with_values_loc',
        'query', 'xs_label', 'mask_with_isin', 'mask_with_in1d'
    ],
    columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
    dtype=float
)

for j in res.columns:
    d = pd.concat([df] * j, ignore_index=True)
    for i in res.index:a
        stmt = '{}(d)'.format(i)
        setp = 'from __main__ import d, {}'.format(i)
        res.at[i, j] = timeit(stmt, setp, number=50)

特殊时机

看看整个数据框只有一个非对象的特殊情况。dtype

代码如下

spec.div(spec.min())

                     10        30        100       300       1000      3000      10000     30000
mask_with_values  1.009030  1.000000  1.194276  1.000000  1.236892  1.095343  1.000000  1.000000
mask_with_in1d    1.104638  1.094524  1.156930  1.072094  1.000000  1.000000  1.040043  1.027100
reconstruct       1.000000  1.142838  1.000000  1.355440  1.650270  2.222181  2.294913  3.406735

事实证明,重建超过几百行是不值得的。

spec.T.plot(loglog=True)

Enter image description here

功能

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))

def mask_with_values(df):
    mask = df['A'].values == 'foo'
    return df[mask]

def mask_with_in1d(df):
    mask = np.in1d(df['A'].values, ['foo'])
    return df[mask]

def reconstruct(df):
    v = df.values
    mask = np.in1d(df['A'].values, ['foo'])
    return pd.DataFrame(v[mask], df.index[mask], df.columns)

spec = pd.DataFrame(
    index=['mask_with_values', 'mask_with_in1d', 'reconstruct'],
    columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
    dtype=float
)

测试

for j in spec.columns:
    d = pd.concat([df] * j, ignore_index=True)
    for i in spec.index:
        stmt = '{}(d)'.format(i)
        setp = 'from __main__ import d, {}'.format(i)
        spec.at[i, j] = timeit(stmt, setp, number=50)

评论

0赞 Confounded 9/27/2023
我个人喜欢使用 和 。groupbyfilterdf.groupby(['column_name']).filter(lambda x: x.name == column_value)
43赞 SP001 12/7/2017 #8

对于 Pandas 中给定值的多个列中仅选择特定列:

select col_name1, col_name2 from table where column_name = some_value.

选项位置

df.loc[df['column_name'] == some_value, [col_name1, col_name2]]

查询

df.query('column_name == some_value')[[col_name1, col_name2]]
11赞 vahid 12/8/2018 #9

您还可以使用 .apply:

df.apply(lambda row: row[df['B'].isin(['one','three'])])

它实际上是按行工作的(即将函数应用于每一行)。

输出为

   A      B  C   D
0  foo    one  0   0
1  bar    one  1   2
3  bar  three  3   6
6  foo    one  6  12
7  foo  three  7  14

结果与@unutbu提到的使用相同

df[[df['B'].isin(['one','three'])]]
73赞 Erfan 8/3/2019 #10

更灵活地使用 pandas >= 0.25.0:.query

由于 pandas >= 0.25.0,因此我们可以使用该方法过滤带有 pandas 方法的数据帧,甚至是带有空格的列名。通常列名中的空格会给出错误,但现在我们可以使用反引号 (') 解决该错误 - 请参阅 GitHubquery

# Example dataframe
df = pd.DataFrame({'Sender email':['[email protected]', "[email protected]", "[email protected]"]})

     Sender email
0  [email protected]
1  [email protected]
2    [email protected]

使用方法:.querystr.endswith

df.query('`Sender email`.str.endswith("@shop.com")')

输出

     Sender email
1  [email protected]
2    [email protected]

此外,我们可以通过在查询中用 an 作为前缀来使用局部变量:@

domain = 'shop.com'
df.query('`Sender email`.str.endswith(@domain)')

输出

     Sender email
1  [email protected]
2    [email protected]
36赞 Punnerud 1/5/2021 #11

在较新版本的 Pandas 中,受文档(查看数据)的启发:

df[df["colume_name"] == some_value] #Scalar, True/False..

df[df["colume_name"] == "some_value"] #String

通过将子句放在括号中,并将它们与 和 (and/or) 组合在一起来组合多个条件。喜欢这个:()&|

df[(df["colume_name"] == "some_value1") & (pd[pd["colume_name"] == "some_value2"])]

其他过滤器

pandas.notna(df["colume_name"]) == True # Not NaN
df['colume_name'].str.contains("text") # Search for "text"
df['colume_name'].str.lower().str.contains("text") # Search for "text", after converting  to lowercase
5赞 lord-hasan 11/26/2021 #12

如果您想重复查询数据帧并且速度对您很重要,最好的办法是将数据帧转换为字典,然后通过这样做可以使查询速度提高数千倍。

my_df = df.set_index(column_name)
my_dict = my_df.to_dict('index')

制作字典后my_dict您可以通过:

if some_value in my_dict.keys():
   my_result = my_dict[some_value]

如果column_name中有重复的值,则无法创建字典。但您可以使用:

my_result = my_df.loc[some_value]
0赞 L. Astola 2/17/2022 #13

很好的答案。只是,当数据帧的大小接近百万行时,许多方法在使用 时往往会花费很长时间。我希望“another_column”的所有可能值都与“some_column”中的特定值相对应(在本例中为字典中)。这奏效了,而且很快。df[df['col']==val]

s=datetime.datetime.now()

my_dict={}

for i, my_key in enumerate(df['some_column'].values): 
    if i%100==0:
        print(i)  # to see the progress
    if my_key not in my_dict.keys():
        my_dict[my_key]={}
        my_dict[my_key]['values']=[df.iloc[i]['another_column']]
    else:
        my_dict[my_key]['values'].append(df.iloc[i]['another_column'])
        
e=datetime.datetime.now()

print('operation took '+str(e-s)+' seconds')```

5赞 Erfan 4/21/2022 #14

使用 DuckDB 对 DataFrame 进行选择行的 SQL 语句

借助 DuckDB,我们可以以高性能的方式使用 SQL 语句查询 pandas DataFrames。

由于问题是“如何根据列值从 DataFrame 中选择行?”,并且问题中的示例是 SQL 查询,因此本主题中的答案看起来是合乎逻辑的。

示例

In [1]: import duckdb

In [2]: import pandas as pd

In [3]: con = duckdb.connect()

In [4]: df = pd.DataFrame({"A": range(11), "B": range(11, 22)})

In [5]: df
Out[5]:
     A   B
0    0  11
1    1  12
2    2  13
3    3  14
4    4  15
5    5  16
6    6  17
7    7  18
8    8  19
9    9  20
10  10  21

In [6]: results = con.execute("SELECT * FROM df where A > 2").df()

In [7]: results
Out[7]:
    A   B
0   3  14
1   4  15
2   5  16
3   6  17
4   7  18
5   8  19
6   9  20
7  10  21
5赞 Mykola Zotko 8/3/2022 #15

您可以将(方括号)与函数一起使用:loc

# Series
s = pd.Series([1, 2, 3, 4]) 
s.loc[lambda x: x > 1]
# s[lambda x: x > 1]

输出:

1    2
2    3
3    4
dtype: int64

# DataFrame
df = pd.DataFrame({'A': [1, 2, 3], 'B': [10, 20, 30]})
df[lambda x: (x['A'] != 1) & (x['B'] != 30)]

输出:

   A   B
1  2  20

评论

1赞 Artem Sokolov 1/25/2023
在我看来,这是最好的答案,因为 a) 它不会重复变量名称两次,使其不易出错,并且 b) 它是链友好的,使其与其他数据帧操作更加简化。
13赞 cottontail 9/18/2022 #16

1. 在通话中使用 f 字符串query()

如果用于筛选数据帧的列名来自局部变量,则 f 字符串可能很有用。例如

col = 'A'
df.query(f"{col} == 'foo'")

事实上,f-strings 也可以用于查询变量(datetime 除外):

col = 'A'
my_var = 'foo'
df.query(f"{col} == '{my_var}'") # if my_var is a string

my_num = 1
df.query(f"{col} == {my_num}") # if my_var is a number

my_date = '2022-12-10'
df.query(f"{col} == @my_date") # must use @ for datetime though

2.安装以加快通话速度numexprquery()

pandas 文档建议在使用 时安装 numexpr 以加快数值计算速度。使用(或 等,具体取决于您的环境)进行安装。query()pip install numexprcondasudo

对于较大的数据帧(性能实际上很重要),使用 engine 的执行速度比 .特别是,它在以下情况下表现更好。df.query()numexprdf[mask]

字符串列上的逻辑运算符和/或比较运算符

如果将一列字符串与一些其他字符串进行比较,并且要选择匹配的行,即使对于单个比较操作,其执行速度也比 快。例如,对于具有 80k 行的数据帧,它的速度提高了 30%1,对于具有 800k 行的数据帧,它的速度提高了 60%。阿拉伯数字query()df[mask]

df[df.A == 'foo']
df.query("A == 'foo'")  # <--- performs 30%-60% faster

这种差距随着操作次数的增加而增加(如果链接了 4 个比较,则比 2-2.3 倍快)1,2 和/或数据帧长度增加。阿拉伯数字df.query()df[mask]

对数值列的多次操作

如果需要计算多个算术、逻辑或比较运算来创建布尔掩码来过滤,则执行速度更快。例如,对于具有 80k 行的帧,它的速度快了20% 1,对于具有 800k 行的帧,它的速度快了 2 倍。阿拉伯数字dfquery()

df[(df.B % 5) **2 < 0.1]
df.query("(B % 5) **2 < 0.1")  # <--- performs 20%-100% faster.

这种性能差距随着操作数量的增加和/或数据帧长度的增加而增加。阿拉伯数字

下图显示了随着数据帧长度的增加,这些方法的性能如何。3

perfplot

3. 在里面调用 pandas 方法query()

Numexpr 目前仅支持逻辑运算符 (, , , ) 、 比较 ( 、 ) 和基本算术运算符 (、 、 、 、 。&|~==><>=<=!=+-*/**%

例如,它不支持整数除法 ()。但是,调用等效的 pandas 方法 () 是有效的。//floordiv()

df.query('B.floordiv(2) <= 3')  # or 
df.query('B.floordiv(2).le(3)')

# for pandas < 1.4, need `.values`
df.query('B.floordiv(2).values <= 3')


1 使用具有 80k 行的框架的基准代码

import numpy as np
df = pd.DataFrame({'A': 'foo bar foo baz foo bar foo foo'.split()*10000, 
                   'B': np.random.rand(80000)})

%timeit df[df.A == 'foo']
# 8.5 ms ± 104.5 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
%timeit df.query("A == 'foo'")
# 6.36 ms ± 95.7 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)

%timeit df[((df.A == 'foo') & (df.A != 'bar')) | ((df.A != 'baz') & (df.A != 'buz'))]
# 29 ms ± 554 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)
%timeit df.query("A == 'foo' & A != 'bar' | A != 'baz' & A != 'buz'")
# 16 ms ± 339 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)

%timeit df[(df.B % 5) **2 < 0.1]
# 5.35 ms ± 37.6 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
%timeit df.query("(B % 5) **2 < 0.1")
# 4.37 ms ± 46.3 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)

2 使用具有 800k 行的帧的基准测试代码

df = pd.DataFrame({'A': 'foo bar foo baz foo bar foo foo'.split()*100000, 
                   'B': np.random.rand(800000)})

%timeit df[df.A == 'foo']
# 87.9 ms ± 873 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)
%timeit df.query("A == 'foo'")
# 54.4 ms ± 726 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)

%timeit df[((df.A == 'foo') & (df.A != 'bar')) | ((df.A != 'baz') & (df.A != 'buz'))]
# 310 ms ± 3.4 ms per loop (mean ± std. dev. of 10 runs, 100 loops each)
%timeit df.query("A == 'foo' & A != 'bar' | A != 'baz' & A != 'buz'")
# 132 ms ± 2.43 ms per loop (mean ± std. dev. of 10 runs, 100 loops each)

%timeit df[(df.B % 5) **2 < 0.1]
# 54 ms ± 488 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)
%timeit df.query("(B % 5) **2 < 0.1")
# 26.3 ms ± 320 µs per loop (mean ± std. dev. of 10 runs, 100 loops each)

3:用于生成字符串和数字两种方法的性能图的代码。

from perfplot import plot
constructor = lambda n: pd.DataFrame({'A': 'foo bar foo baz foo bar foo foo'.split()*n, 'B': np.random.rand(8*n)})
plot(
    setup=constructor,
    kernels=[lambda df: df[(df.B%5)**2<0.1], lambda df: df.query("(B%5)**2<0.1")],
    labels= ['df[(df.B % 5) **2 < 0.1]', 'df.query("(B % 5) **2 < 0.1")'],
    n_range=[2**k for k in range(4, 24)],
    xlabel='Rows in DataFrame',
    title='Multiple mathematical operations on numbers',
    equality_check=pd.DataFrame.equals);
plot(
    setup=constructor,
    kernels=[lambda df: df[df.A == 'foo'], lambda df: df.query("A == 'foo'")],
    labels= ["df[df.A == 'foo']", """df.query("A == 'foo'")"""],
    n_range=[2**k for k in range(4, 24)],
    xlabel='Rows in DataFrame',
    title='Comparison operation on strings',
    equality_check=pd.DataFrame.equals);
1赞 Panagiotis Drakatos 4/8/2023 #17

以下是使用 pandas 内置函数的选项,类似于 .isin

 df = pd.DataFrame({'cost': [250, 150, 100], 'revenue': [100, 250, 300]},index=['A', 'B', 'C'])

   cost  revenue
A   250      100
B   150      250
C   100      300

比较 DataFrames 是否相等

 df[df["cost"].eq(250)]

   cost  revenue
A   250      100

比较 DataFrames 是否大于不等式或相等元素。

df[df["cost"].ge(100)]

   cost  revenue
A   250      100
B   150      250
C   100      300

比较严格小于元素不等式的 DataFrames。

df[df["cost"].lt(200)]

   cost  revenue
B   150      250
C   100      300