# ライブラリのインポート};~ import pandas as pd # CSV(出力結果)をデータフレームとして読み込み df = pd.read_csv("C:\\temp\\data.csv") # とりあえず年と年毎に観測回数をカウントしてみる(NOは個体についてるID) pd.crosstab([df2006.YEAR,df2006.MONTH], df2006.NO) # 月毎にグループ化(データフレーム全体) grouped = df.groupby('MONTH') # 観測値(ここでは標高)の月毎平均を算出 grouped['elev'].mean()
# os モジュールのインポート import os # サブディレクトリを含むファイル名を返す pathiter = (os.path.join(root, filename) for root, _, filenames in os.walk("C:\\temp\\") for filename in filenames ) # 特定の文字列を置換 for path in pathiter: # ハイフンをアンダーバーに変換指定 newname = path.replace('-', '_') if newname != path: os.rename(path,newname)
import glob files_dir = glob.glob("C:\\temp\\*.csv") for file in files_dir: print file
import os files = os.listdir("C:\\temp\\") for file in files: print file
ex 上記のリストから特定の位置の文字列を取り出すとか for x in files_dir: start = len(x) - 12 end = len(x) -4 dftest = "df" + str(x[start:end]) print dftest
# tarfileモジュールのインポート import tarfile # ファイルを指定する comp_f = tarfile.open("C:/temp/xxxx.tar.gz") # 出力先を指定して解凍 comp_f.extractall("C:/temp/")
こんなときにはArcpyを使って処理するとべんりです。
for x in [111, 222, 333, 444, 555, 666, 777, 888, 999]:
# arcpyをインポートする import arcpy # 必要なエクステンションがあるかどうかをチェックする # spatial analyst = "spatial" # 3D analyst = "3D" arcpy.CheckOutExtension("spatial") # 入出力する変数を定義する # パスとファイル名はダブルコーテーションで囲う # パス区切りは\\で行う hexagons_shp = "D:\\test\\hexagons.shp" dem50gsi_j2ku54_img = "D:\\test\\dem50gsi_j2ku54.img" output_table = "D:\\temp\\zst_slope_02.dbf" # 処理コマンド中に上記変数を入力する # 上記の変数以外の設定値はダブルコーテーションで囲って指定する # どのような変数が必須かはHELPを参照する arcpy.gp.ZonalStatisticsAsTable_sa(hexagons_shp, "Unique_ID", dem50gsi_j2ku54_img, output_table, "NODATA", "ALL") # 処理が終了したらfinishという文字を表示させる print "finish"
# globモジュールをインポートする import glob # arcpyをインポートする import arcpy # 出力ファイルのパスと名前を指定 outputdata = "C:\\temp\\ps_merge_all.shp" # ワイルドカードを使用して入力データリストを指定 files = glob.glob('C:\\temp\\*.shp') # Process: マージ (Merge) arcpy.Merge_management(files, outputdata) # 処理終了時にfinishと出力する print "finish"
ここでの例:国土基本メッシュ単位に分割されたレーザー測量データ(カンマ区切りテキスト)を読み込んでESRI shape file 形式に変換する
# arcpyをインポートする import arcpy # 入力および出力ファイルのディレクトリを指定 input_dir = "D:\\last_p" output_dir = "D:\\last_p_out" # 以下より処理内容 try: for x in [111, 222, 333, 444, 555, 666, 777, 888, 999]: #変数の宣言 fc = input_dir + "\\13lf" + str(x) + "_l_org_h.txt" fc2 = str(x) + "_la" fc3 = output_dir + "\\13lf" + str(x) + "_p_j2kxy13.shp" # Process: XY イベント レイヤの作成(Make XY Event Layer arcpy.MakeXYEventLayer_management(fc, "x", "y", fc2, "", "z") # Process: フィーチャのコピー(Copy Features) arcpy.CopyFeatures_management(fc2, fc3, "", "0", "0", "0") # 処理が1サイクル正常に終了したら出力ファイル名を表示させる print str(x) + "_p_j2kxy13.shp" # どこかで処理が停止した場合 "error" と表示させる except: print "error" # すべての処理が正常に終了したら"finish"と表示させる print "finish"
250m間隔で最大60kmまでテキストを出力
(ex.250 500 750 1000・・・・)
# process for defining break value # define minimum number min_v = 250 # define maximum number max_v = 60000 # define output text file out_put = "C:\\temp\\output.txt" # define range value ini_v = min_v + min_v end_v = max_v + min_v int_v = min_v # define break value break_v = min_v # set repeat number and interval for x in range(ini_v,end_v,int_v): break_v = str(break_v) + " " + str(x) # process text file output f = open(out_put, 'w') f.write(break_v) f.close() print break_v print "finish"
import arcpy import glob import os.path # set target directory T_path = "C:\\temp\\" # get file list as fullpath listgps = glob.glob(T_path + "*.shp") for f in listgps: # Process: Add Field arcpy.AddField_management(f, "orig_name", "TEXT", "", "", "100", "", "NULLABLE", "NON_REQUIRED", "") # get file name from fullpath f2 = os.path.basename(f) # set formula into a specific format f3 = "\"" + f2 + "\"" # Process: Calculate Field arcpy.CalculateField_management(f, "orig_name", f3, "PYTHON", "") print "finish"
# 各モジュールをインポートする import csv import sys # CSVファイルのフルパスを指定する csvfile=open("C:\\temp\\list.csv") # 各行のデータおよび各行の列数を格納するリストをそれぞれ宣言する rowlist = [] colnum = [] # 1行毎にリストにし列数をカウントする for row in csv.reader(csvfile): rowlist.append(row) colnum.append(len(row)) # 行列変換 (各列の要素をリストにする) collist = [] for colnum in range(max(colnum)): eachcollist = [] for rownum in range(len(rowlist)): eachcollist.append(rowlist[rownum][colnum]) collist.append(eachcollist) # 行数(レコード数数)および列数の確認 print str(len(rowlist)) + " 行(レコード)" countcol = len(collist) print countcol,"列", # 指定した行をリストとして表示し確認 # ただし指定列数から1を引いた値を指定すること (1列目だったら0と指定) print collist[0]
あとは for x in collist[0]: として繰り返しの処理を行う
→Arcgis10のツールボックス用です(そのように作るよう頼まれたため)
→各フィーチャは一直線という前提で書いています(フィーチャの始終点の座標から方位角を求めている)
import arcpy import math # Script arguments input_table = arcpy.GetParameterAsText(0) # local variables infc = input_table # input feature class arcpy.AddField_management(input_table, "azimuth_a", "DOUBLE", "10", "5", "", "", "NULLABLE", "") # Identify the geometry field # desc = arcpy.Describe(infc) shapefieldname = desc.ShapeFieldName # Create search cursor # rows = arcpy.UpdateCursor(infc) # Enter for loop for each feature/row # for row in rows: # Create the geometry object # feat = row.getValue(shapefieldname) #Set start point startpt = feat.firstPoint #Set Start coordinates startx = startpt.X starty = startpt.Y #Set end point endpt = feat.lastPoint #Set End coordinates endx = endpt.X endy = endpt.Y radian = math.atan((endx - startx)/(endy - starty)) degree = radian * 180 / math.pi row.azimuth_a = degree rows.updateRow(row) # delete cursor and row objects to remove lock on the data del row del rows
vect = 'vector_data_sample' for x in ("TS199504","TS199505","TS199506","TS199507","TS199508","TS199509","TS199510","TS199511","TS199512","TS199601","TS199605"): grass.run_command("v.to.rast", input = vect, output = str(x) + "_cs", use = "attr", column = str(x))
→pygeocode と requestsパッケージが必要
→Google Geocoding APIを使っている
# 日本語でgeocodeしてみる # -*- coding: utf-8 -*- from pygeocoder import Geocoder results = Geocoder.geocode(u"北海道富良野市") print(results[0].coordinates) #reverse geocodeしてみる r_result = Geocoder.reverse_geocode(43.3421398, 142.3832254) print(r_result[0])