Python 地址文本分析:提取省市縣行政區(qū)信息
Python 地址文本分析:提取省市縣行政區(qū)信息
通過百度地圖開放平臺的API,在地址查詢經(jīng)緯度后可以通過經(jīng)緯度來獲得地址所在的省市縣的信息。除此之外,我們還可以通過文本分析的方法,直接通過地址來獲得省市縣的信息,這樣速度更快,而且也不需要收到API每天300w限量的約束。地址文本分析是一個非常常見的需求,如何從復(fù)雜的地址信息中高效、準(zhǔn)確地提取關(guān)鍵的行政區(qū)劃信息呢?我們將介紹一個基于 jionlp 的方法,并深入解析相關(guān)代碼。
代碼功能
本代碼主要完成以下功能:
1. 從 .dta 文件中讀取數(shù)據(jù);
2. 使用 jionlp 對地址進(jìn)行解析,提取省市縣信息;
3. 分塊處理數(shù)據(jù),確保大數(shù)據(jù)量下的穩(wěn)定運(yùn)行;
4. 對每次處理的結(jié)果進(jìn)行中間存儲,確保數(shù)據(jù)處理的可恢復(fù)性。
代碼解析
接下來,我們詳細(xì)解析代碼的每一部分:
## Python 地址文本分析代碼解讀
```python
# 導(dǎo)入必要的庫
import os
import pandas as pd
import jionlp as jio
# 設(shè)置數(shù)據(jù)路徑,并指定要讀取的字段
data_path = "I:\\baiduAPI\\move_address\\cleaned_move_addr.dta"
use_cols = ['id', 'date', 'unified_code', 'new_address', 'old_address']
# 使用 pandas 讀取 .dta 格式的數(shù)據(jù)
df = pd.read_stata(data_path, columns=use_cols) # 僅讀取指定列,節(jié)省內(nèi)存
# 定義地址解析函數(shù),輸入是 DataFrame 的每一行
def extract_location_info(row):
# 循環(huán)處理 'new_address' 和 'old_address' 兩個字段
for column, prefix in [('new_address', 'new'), ('old_address', 'old')]:
address = row[column]
try:
# 使用 jionlp 進(jìn)行地址解析
result = jio.parse_location(address)
# 根據(jù)解析結(jié)果更新當(dāng)前行的省、市、縣字段
row[f'{prefix}_province'] = result.get('province', None)
row[f'{prefix}_city'] = result.get('city', None)
row[f'{prefix}_county'] = result.get('county', None)
# 打印處理成功的信息
print(f"Processing {column} for ID {row['id']} - Success!")
except Exception as e:
# 如果解析出錯,將對應(yīng)字段設(shè)置為 None
row[f'{prefix}_province'] = None
row[f'{prefix}_city'] = None
row[f'{prefix}_county'] = None
# 打印處理失敗的信息
print(f"Processing {column} for ID {row['id']} - Failed! Error: {e}")
return row # 返回處理后的行
# 設(shè)置每次處理的數(shù)據(jù)塊大小,有助于節(jié)省內(nèi)存
chunk_size = 500000
for i in range(0, len(df), chunk_size): # 按照 chunk_size 大小分塊處理數(shù)據(jù)
# 定義每塊數(shù)據(jù)的臨時輸出路徑
temp_output_path = f"I:\\baiduAPI\\temp_processed_move_address_{i//chunk_size + 1}.csv"
# 檢查臨時文件是否已存在,如果存在則跳過,實現(xiàn)斷點續(xù)傳功能
if os.path.exists(temp_output_path):
print(f"Chunk {i//chunk_size + 1} already processed. Skipping...")
continue
# 截取當(dāng)前塊的數(shù)據(jù)
df_chunk = df.iloc[i:i+chunk_size]
# 對當(dāng)前塊的數(shù)據(jù)應(yīng)用地址解析函數(shù)
df_chunk = df_chunk.apply(extract_location_info, axis=1)
# 將處理后的數(shù)據(jù)保存到臨時 CSV 文件
df_chunk.to_csv(temp_output_path, index=False, encoding='utf-8-sig')
# 打印保存信息
print(f"Saved processed data to: {temp_output_path}")
# 定義最終的輸出路徑
output_path = "I:\\baiduAPI\\processed_move_address.csv"
# 讀取所有臨時文件并合并
df = pd.concat([pd.read_csv(f"I:\\baiduAPI\\temp_processed_move_address_{i//chunk_size + 1}.csv", encoding='utf-8-sig') for i in range(0, len(df), chunk_size)], ignore_index=True)
# 將合并后的數(shù)據(jù)保存為 CSV 文件
df.to_csv(output_path, index=False, encoding='utf-8-sig')
# 打印完成信息
print("\nProcessing completed and saved to:", output_path)
代碼優(yōu)勢
1. 高效解析:利用 jionlp 包,我們可以快速、準(zhǔn)確地對地址進(jìn)行解析。
2. 分塊處理:當(dāng)處理大規(guī)模數(shù)據(jù)時,分塊處理可以有效減少內(nèi)存消耗,確保代碼的穩(wěn)定運(yùn)行。
3. 中間結(jié)果保存:代碼可以將每塊數(shù)據(jù)的處理結(jié)果分別保存,即使中途出現(xiàn)異常,也能從斷點處繼續(xù),大大提高了數(shù)據(jù)處理的魯棒性。
4. 異常處理:對于可能出現(xiàn)的異常地址格式,代碼能夠捕捉異常并進(jìn)行相應(yīng)的處理,確保整體流程不會因單個錯誤而中斷。
結(jié)語
通過這篇文章,我們了解了如何利用 jionlp 對地址進(jìn)行解析,并針對大規(guī)模數(shù)據(jù)進(jìn)行穩(wěn)定、高效的處理。這種方法不僅適用于地址文本分析,還可以應(yīng)用于其他文本數(shù)據(jù)處理任務(wù),展現(xiàn)了 Python 在數(shù)據(jù)處理方面的強(qiáng)大能力。