第一次拿到原始数据集时,我总想起刚学做菜时面对一堆生鲜食材的场景。数据就像未经处理的食材——可能有泥沙(缺失值)、烂叶(异常值)、大小不一(量纲差异)。而特征工程就是将这些原材料处理成适合下锅的标准化食材的过程。
在实际项目中,我见过太多因为忽视特征工程导致的"翻车"事故。比如某次用户画像项目直接使用原始收入数据,导致模型被几个亿级富豪的样本完全带偏;另一次文本分类中,未做归一化的词频特征让模型变成了"长度探测器"。这些教训让我深刻理解到:模型性能的天花板往往在数据进入算法前就已经由特征工程决定了。
特征工程的核心价值在于三点:
面对缺失值,新手常直接删除或填零了事。但实践中我发现,缺失本身可能就是重要信息。某电商用户行为分析中,支付金额为空的用户中,70%最终成为高价值客户——这些"未支付"实际是货到付款用户。处理缺失值的正确姿势应该是:
python复制# 创建缺失指示特征
df['payment_missing'] = df['payment_amount'].isnull().astype(int)
# 分类型填充策略
payment_means = df.groupby('user_level')['payment_amount'].transform('median')
df['payment_amount'] = df['payment_amount'].fillna(payment_means)
处理异常值时,我常用"三分法":
python复制from sklearn.ensemble import IsolationForest
clf = IsolationForest(contamination=0.05)
outliers = clf.fit_predict(X)
X_clean = X[outliers == 1]
当处理收入、点击量等右偏数据时,对数转换是我的首选武器。某广告点击预测项目中,原始点击量的偏度系数达9.8,经过log(1+x)转换后降至0.3。但要注意:
python复制# 安全对数转换
df['log_clicks'] = np.log1p(df['clicks'] - df['clicks'].min())
很多同行纠结于该用标准化(Z-score)还是归一化(MinMax)。我的经验法则是:
python复制from sklearn.preprocessing import StandardScaler, MinMaxScaler
# 对数值特征标准化
num_cols = ['age', 'income']
scaler = StandardScaler()
X[num_cols] = scaler.fit_transform(X[num_cols])
# 对百分比特征归一化
pct_cols = ['discount_rate']
minmax = MinMaxScaler(feature_range=(0, 1))
X[pct_cols] = minmax.fit_transform(X[pct_cols])
曾有个项目对城市做LabelEncoder编码后,模型莫名其妙认为北京(编码1)和上海(编码2)的相似度高于北京和天津(编码3)。这提醒我们:
面对高基数特征(如邮编),直接OneHot会导致特征爆炸。我的解决方案组合:
python复制# 高基数特征处理示例
df['zip_prefix'] = df['zipcode'].str[:3] # 取前三位
zip_freq = df['zip_prefix'].value_counts(normalize=True)
df['zip_freq'] = df['zip_prefix'].map(zip_freq)
处理时间戳时,我习惯提取三层信息:
python复制# 时间特征工程示例
df['purchase_hour'] = df['timestamp'].dt.hour
df['is_weekend'] = df['timestamp'].dt.weekday >= 5
df['days_since_last'] = df.groupby('user_id')['timestamp'].diff().dt.days
好的交互特征就像调料组合,能产生意想不到的效果。我的常用组合公式:
python复制# 交互特征创建
df['price_per_sqft'] = df['price'] / df['area']
df['luxury_index'] = df['brand_level'] * df['customer_income']
特征不是越多越好。我常用"三步筛选法":
python复制from sklearn.feature_selection import VarianceThreshold
# 低方差特征过滤
selector = VarianceThreshold(threshold=0.01)
X_selected = selector.fit_transform(X)
技术指标再完美,也要通过业务合理性检验。有次模型认为"用户手机型号尾号"是最重要特征,调查发现这是数据采集时的系统错误。好的特征应该:
在时间序列项目中,我曾不小心用未来数据标准化历史数据,导致线上效果暴跌。现在严格遵守:
python复制from sklearn.pipeline import Pipeline
# 创建安全的特征工程流程
preprocessor = Pipeline([
('imputer', SimpleImputer(strategy='median')),
('scaler', StandardScaler()),
('selector', SelectKBest(k=20))
])
X_train = preprocessor.fit_transform(X_train)
X_test = preprocessor.transform(X_test) # 注意不是fit_transform
当特征工程流程复杂时,版本控制就至关重要。我的标准做法:
python复制# 特征版本控制示例
import hashlib
def get_feature_hash(feature_matrix):
return hashlib.md5(feature_matrix.tobytes()).hexdigest()
feature_hash = get_feature_hash(X_train)
with open(f'features/{feature_hash}_params.pkl', 'wb') as f:
pickle.dump(preprocessor, f)