注: 以下の翻訳の正確性は検証されていません。AIPを利用して英語版の原文から機械的に翻訳されたものです。
TransformInput
オブジェクトFoundry データセットの低レベルな操作のためのインターフェース。
spark.df()
data.frame()
fileSystem()
TransformOutput
オブジェクトFoundry データセットへの低レベルな書き込み操作のためのインターフェース。
write.spark.df
(df, partition_cols=NULL, bucket_cols=NULL, bucket_count=NULL, sort_by=NULL)
与えられた DataFrame を出力データセットに書き込みます。
パラメーター |
|
write.data.frame
(rdf)
fileSystem()
FileSystem
オブジェクトls
(glob=NULL, regex='.*', show_hidden=FALSE)
データセットのルートディレクトリに対して、指定されたパターン(glob
または regex
)に一致するすべてのファイルをリストします。
パラメーター |
|
戻り値 | FileStatus named tuple (path, size, modified) の R 配列 - 論理パス、ファイルサイズ(バイト)、変更タイムスタンプ(1970年1月1日 UTC からの ms) |
open
(path, open='r', disk_optimal=FALSE, encoding=default)
指定されたモードで FoundryFS ファイルを開きます。
パラメーター |
|
戻り値 | R 接続オブジェクト |
get_path
(path, open='r', disk_optimal=FALSE, encoding=default)
与えられた FoundryFS(リモート)パスに対して、一時的なローカルパスを返します。
パラメーター |
|
戻り値 | str |
upload
(local_path, remote_path)
ローカルパスからリモートパスへのファイルをアップロードします。書き込み専用。
パラメーター |
|
戻り値 | None |
disk_optimal
設定FileSystem
のメソッド open()
および get_path()
では、disk_optimal
引数がファイル入出力(i/o)の処理方法を制御します。
デフォルトでは、open()
と get_path()
の両方で disk_optimal
は FALSE
に設定されています。このモードでは、ファイルがアクセスされる前にダウンロードされることが保証されています。
disk_optimal
を TRUE
に設定すると、コードの実行中にファイルが同時にダウンロードされます。一時的なローカルパスは、正しく読み取るために fifo()
を介して開く必要があります。すべてのライブラリがこのタイプのファイルを読むことをサポートしているわけではないことに注意してください。
読み込むファイルが非常に大きい場合は、disk_optimal
を TRUE
に設定することを選択できます。
例えば、非常に大きな txt ファイルがあり、最初の 10 行だけを読みたい場合があります。以下のコードを使用して、ファイル全体を読むことなく、最初の 10 行だけを表示します。
Copied!1 2 3 4 5 6 7 8 9 10 11 12 13
disk_optimal_example<- function(large_txt_file) { fs <- large_txt_file$fileSystem() ## fifo()で接続を開く ## テキストファイルのタイトルは large_txt_file.txt です conn <- fs$open("large_txt_file.txt", "r", disk_optimal = TRUE) A <- readLines(conn, n = 10) # Aという変数にconnから最初の10行を読み込む print(A) # Aを出力する return(NULL) }
R TransformOutput を使用してファイルを書き込んでから読み取りたい場合は、disk_optimal
を false に設定する必要があります。