@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

バルクアップデート、バルク=大量
2023.10.01
おはようございます、バルクアップデートという技を最近知りました。バルクとは大量を意味する言葉です、バルクアップデートとは大量のデータを一括でアップデートする手法です。結構、大量のデータをアップデート出来るのですが、それでも時間がかかります。因みに普通にアップデートすると「504 Gateway Timeout 」が発生する場合などに使用する良いと思います。
これでもUPDATEが出来ない場合は、一度、クラウドに一旦保存しておき、そこから再度、更新処理を行うと言った手法が良いかも知れません。何にせよ、大量のデータを一括アップデートは大変です。
Xのシェアしたものを貼り付けていますが、見れない人用にリンクも貼っときます。
https://gri.jp/media/entry/9838
明日へつづく😌。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Gateway Timeout, UPDATE, X, アップ, アップデート, クラウド, データ, バルク, バルクアップデート, リンク, 一括, 一括アップデート, 一旦, 再度, 大量, 手法, 技, 時間, 更新処理, 言葉,

記事を大量生産するWPプラグインを5万~
2023.08.04
おはようございます、記事を大量生産するWPプラグインを5万から10万円の間で見積もりします💁という案件がクラウドワークスに先日、掲載されていて自分が無料で公開しているものがそんな価値があるとはと驚きでした。
でも、記事を大量生産しても恐らくそんなに広告収益は出ないと思います。CHATGPTがこの記事を書いたかどうかは、CHATGPTに問い合わせをすることで回答してくれるのでGさんとかそういう人工知能が生成した記事は除いていそうな気がします。
それよりか、生成AIを使用してモデルさんを作ってその画像を販売している人達がいます。そういう人達の方が遥かに稼いでいるし、今ではGEN-2を使用してそのキャラを動かすことが可能になってきました。こういう事になると生成AIが俳優さんの代わりに演じることも可能になるので、どうなっていくかは何となく分かります。恐らく2年後には生成AIで生成されたキャラがYOUTUBERとして活動しているかも知れない🗿。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
ChatGPT, GEN-2, Gさん, WPプラグイン, YOUTUBER, キャラ, クラウドワークス, モデルさん, 人工知能, 人達, 価値, 俳優さん, 大量, 大量生産, 広告収益, 案件, 気, 生成AI, 画像, 間,

倉庫作業がロボットに仕事が奪われるまで、あと何年?
2022.07.22
おはようございます。退職してから一週間経過しましたが、まだ何ともです。
さて、倉庫作業がロボットに仕事が奪われるまで、あと何年か考えてみました。自分の予想はあと数十年先だと思っていますが、これは既存のシステム、今までの倉庫作業を置き換えるという意味であって今までとは考え方を変えてロボットに優しい倉庫システムを作ったのならばロボットは人型ロボットではならないなどの制約は受けないのです。そういう倉庫(物流センター)2.0は、もう導入されています。
なので、ゆくゆくは物流センター(物流倉庫)は上記の動画にもあるような、自動化へ置き換わると思います。それは時間の問題だと思います。因みに配送までも全てロボットに何れ置き換わると思いますよ。因みに自動化が行われるのは労働系よりもデスクワークのお仕事の方が早く置き換わると考えています。なので、実は職を失うのは労働者よりもデスクワーカーだったりしてそんな人々が労働へシフトしていくと可能性もあり労働者も大変な時代になる可能性はあると思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2.0, Future, of, Robotics, The, お仕事, これ, システム, センター, それ, デスク, ニトリ, ロボット, ワーク, 一, 上記, 予想, 人型, 仕事, 何, 何年, 作業, 倉庫, 全て, 制約, 労働, 動画, 商品, 問題, 大量, 導入, 意味, 数十, 方, 既存, 時間, 物流, 経過, 考え方, 自分, 自動, 退職, 通販, 配送,

全てポイント買いです、この頃の本活事情です。😆
2022.06.18
おはようございます、今月のお給与は全て修理代金に飛んでいきましたが、貯金と投資で何とか生きています。因みに今はサイドビジネスはネットショップ経営とブログの広告収入と言いたい所ですが、年に一回ぐらい収入が入るぐらいです。
先日、本を大量に購入しました。知っていることが殆どだと思うのですが情報の上書きと抜けている情報を詰め込むために購入しました。本の感想やツマミはツイッターにでもアップするかもしれません。
因みに電子書籍って本を購入しているわけではないという話を聞きました。なので、アカウントなどが消えてしまった場合は、同一人物であってもデータの復元は出来ないそうですね。なので、IDやパスワードは厳重に保管しましょう。パスワードに記号が一つでも入るとセキュリティは高くなりますが、総当たりで攻撃されると結局解読できてしまうので、今では二段階認証や生体認証技術が取り入られていますよね。自分も生体認証技術などを使用してパスワードを管理しています。
パスワード管理アプリは結構、重要です。年に一回費用は発生しますが必要経費だと思っています。なので、Gさんのパスワード管理はあまり信用していません。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
ID, アカウント, アップ, こと, サイドビジネス, ショップ, セキュリティ, ため, ツイッター, ツマミ, データ, ネット, パスワード, ブログ, ポイント, わけ, 一, 一つ, 上書き, 事情, 二, 人物, 今, 今月, 代金, 使用, 保管, 修理, 先日, 全て, 厳重, 収入, 同一, 場合, 大量, 年, 広告, 復元, 情報, 感想, 所, 技術, 投資, 攻撃, 書籍, 本, 本活, 殆ど, 段階, 生体, 経営, 給与, 総当たり, 自分, 解読, 記号, 話, 認証, 貯金, 購入, 電子, 頃,

zero one[ゼロワン]のお仕事、?
2020.11.11
朝、ウォーキングをしていると河原で竹を切り、トラックに大量についでいる二人組のおっさんを目にした。これはまさかの不法伐採とかいう話ではないかと頭をよぎったけど、注意して鎌でかられたら大変なので見ないふりをしてスルーしました。アレって正月用か何かになって市場にでもならぶのかなと思ったわけですが、考えようによってはアレはゼロワンだなと感じました。
ゼロワンとは価値を自らの手で生み出すことをいうという認識。例えばWEBシステムを自ら構築してサービスを展開するなどは間違いなくゼロワンだと思います。システムに限らずにYOUTUBERなどもこの頃、ゼロワンだなと。元手がゼロで自分の芸やトークで稼いでいるのならば、それはれっきとしたゼロワンなんだと思います。
但し、WEBシステムせよYOUTUBERにせよ、プラットフォームのなかでゼロワンを生み出しているわけで、プラットフォームを生み出した企業や人には勝てないなという思いがある。やはり真のゼロワンというのはAとBを繋ぐシステムを作り出した人なんだろうなと感じます。人と人だったり物とひと、物と物を繋ぐシステムを構築したり再構築したりする事が真のゼロワンのお仕事なんだと、不法伐採行為を見て、、、シミジミと感じました。
アレはやっちゃ駄目だな。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
one, web, YOUTUBER, ZERO, アレ, ウォーキング, おっさん, お仕事, こと, これ, サービス, システム, スルー, ゼロ, ゼロワン, それ, トーク, トラック, なか, プラットフォーム, ふり, まさか, わけ, 不法, 二, 人, 企業, 伐採, 但し, 価値, 元手, 大変, 大量, 展開, 市場, 手, 朝, 構築, 正月, 河原, 注意, 目, 真, 竹, 自ら, 自分, 芸, 話, 認識, 鎌, 頃, 頭,
PowerShellであれ使えるだな。
2020.10.15
wget "ダウンロードするファイルのURL" -OutFile "保存先ファイルパス"
あれというのはwgetというダウンロードするときなどに使用するcommandです。リナックス系を使用している人には使っている方も多いかもしれない。そんな素敵なcommandがウィンドウズ10のPowerShell7では使用できるみたいだ。
大量画像にダウンロードする必要があったのでダウンロードファイルをリスト化、command打つように変換した。結果、とても楽です。
事務作業している方でIT好きな方はVBAを勉強してみると確実に仕事の効率化に繋がると思っています、たまにPythonをオススメするひともいるだけど、自分はあまりオススメしません。
なぜなら、一般的な事務員さん全員がそれを取り扱えるとは思わないからです。なのでクリックすれば動くよみたいな物が作れてパソコンの環境を変えないで良いのはVBAぐらいかと思います。PowerShellでもパソコンの環境を変更しないと動かないですからね。
バッチ処理などは一般的なひとはやはりハードルが高いと思ふ・・・?
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
-Command, -OutFile, 10, 7, IT, powershell, Python, quot, url, VB, VBA, wget, あれ, ウィンドウズ, おすすめ, クリック, それ, ダウンロード, たま, とき, パス, パソコン, ひと, ファイル, リスト, リナックス, 事務, 人, 仕事, 作業, 使用, 保存, 全員, 効率, 勉強, 変換, 大量, 必要, 方, 物, 環境, 画像, 素敵, 結果, 自分,
中国では顔パス支払いが出来るそうですね。
2020.09.05
中国では顔パス支払いが出来るそうですが、日本では未だにキャッシュレス支払いが進んでいないとか?
本屋さんでお財布を取り出すのにちょっとこの頃、手間取ってしまいました・・・。大体、お尻のポケットにお財布を入れているのですが、なんだかすんなりお財布を取り出すことが出来ず、間抜けな格好でアレアレってお財布を取り出すのに数十秒かかってしまいました。
自分にとってはある意味、事件(トラブル)でした・・・。
中年の小太りなおっさんが・・・やると益々、駄目おっさんになるので今後はお財布にはあまり小銭を入れないようにしようと反省。
※因みに小銭まで使って支払う主義なんだけど、この頃、お釣りで大量に小銭が増えてしまいお財布がパンパンになっていたのが今回のお財布お尻づまり事件になったわけです・・・orz
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
orz, アレ, おっさん, お尻, お釣り, キャッシュレス, こと, トラブル, ポケット, わけ, 中国, 中年, 主義, 事件, 今回, 今後, 反省, 大体, 大量, 小太り, 小銭, 意味, 数十, 日本, 未だ, 本屋, 格好, 自分, 財布, 間抜け, 頃, 顔パス, 駄目,
明日へ続く愚痴。
2020.05.28
この頃、体調不良です。睡眠は大切ですよと本当に思います・・・。
自分の場合、平均的に8時間睡眠が必要となり、3、4時間の睡眠を毎日続けていると食欲不振になります。また寝ることを我慢していると今度は眠りが浅くすぐ目覚めてしまうという悪循環になることがわかりました。なので、明日からは規則正しい生活習慣に戻します。
この頃、お空からお金が舞い込んでこないので、自分でなにか無料のシステムを作り上げてそこから広告収入を得ようかなと考えています。例えばアプリを大量生産してそれで生計を立てているひとも世の中にはいます。自分はアプリではなくWEBシステムで生計を立てようと思っています。その他にもクラウドからお仕事もやらないといけなくなるでしょう、それに付いては明日書きますね。
まぁこの頃、プログラミングを頑張ってレベル上げして毎日頑張っていろいろ取り組んできたのですが、少々、アクセルを踏みすぎた感があります。ちなみにプログラミングは好きなので、休み無くコードを書く癖があります。凄い集中というか、そういう生き物なのだけです。仕事をしていたときからそういう感じでした。真面目ではないですよ…暗いわけでもないですよ。集中するとそうなるだけなんですよね。
逆に電話がなると仕事を中断しないといけないし時間を使うので自分はテキストが非常に良いと感じます。ホリエモンほど極端ではないものの、やはり電話は仕事を奪うという感覚はあります。もし自分が会社の社長になったなら、プログラマーさんには電話には出なくて良いといいますし、打ち合わせにもリーダー以外出なくて良いといいます。生産性を上げるには最初の上流工程でちゃんと設計するという事が大事になります。それをせず口頭だけでやっといて丸投げするような会社は使えないシステムが生産されます。そういう会社は逃げたほうが良いです。責任だけを負わされるだけで何のメリットも生まれません。そんなわけでプログラマーの生産性を上げるには徹底した効率的な職場が必要かと思います。
明日に続く。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
3, 4, 8, web, アクセル, アプリ, お仕事, お金, クラウド, コード, こと, システム, そこ, その他, それ, ひと, プログラミング, レベル, 不振, 不良, 世, 中, 今度, 休み, 体調, 収入, 場合, 大切, 大量, 少々, 広告, 循環, 必要, 愚痴, 感, 我慢, 明日, 本当, 毎日, 無料, 生活, 生産, 生計, 癖, 睡眠, 空, 習慣, 自分, 頃, 食欲,

何故、赤の他人にそんなにも敵対心や好意を抱いているのかと思うこの頃。
2020.02.26
今日の朝というか、朝方?
寝れなかったのでスマホでTWITTERアプリを開くとこんなの事が書かれていた(下記参照)。書いた本人は常識的な意見という事で指摘したのだろう。それに対して意見が大量についたみたいだけど、箕輪厚介氏と関係ある人はどれぐらいいるだろうかと思ったわけです。自分は基本的に名指しで批判はしないし、批判する場合は名前を伏せて時系列でツイートするけど(それは良いとして)。ふと思ったのは自身、箕輪厚介氏に限らずTVなどの有名人に親近感も持ち合わせていない。
メディアに出ている人は、これからの社会の常識を変える側の人間なのだとは思います。そういう人は率先してこうやって発信しているでしょう。その中で社会に受け入れられるものもあればそうではない物もある。たぶん、会議中にスマホにメモ取るのはIT業界ではOKになり、殆どの事務系はOKになるだろうと思います。音声録音機能と音声を文字変換するアプリもありますからね。効率的に議事録取れる可能性が高いです、そしてそうやって常識が崩れていくと思います。
常識を変えたくなければ絡まないことだと思うです、議論の場を与えなければ物事は変わらない。
余談1:
庶民がSNSを持つことにより、今まで声を上げれなかったひとが声を上げれるようになった事は良いことだと思いますが、逆に庶民は操れている感覚があります。それはTVよりもインターネットの方が操りやすいかなと思いますし、SNSのビックデータと人工知能の解析で民衆はかなりの確率で、もうこの日本でも民衆は操り人形化していると思います。
そしてこの頃思った事は賢い人間もいれば、そうではない人もいる。そうではない人たちは結構メディアを鵜呑みする傾向が強い。実際、事実は体験したひとの中にしか無いので、ある時から自分はメディアはあまり信じていない。特にひとの発信するものは感情がついて回る。ときには感情で法律が変わったりもする、それは恐ろしいことだと思います。
余談2:
賢く良識的な人間が考え出した結果に従いますか、それとも低能な人間が考え出した結果に従いますかと質問すると大体の人は賢い人間が考え出した結果に従うと答えると思いますが、日本国は民主主義なので選挙の票は同じ1票で重み付けはありません。本当にコレで良い世の中になるのかと…。
※余談2はある本で読んだ言葉を自分の言葉に置き換えて書きました。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
IT, OK, TV, Twitter, アプリ, ありま, これ, スマホ, それ, ツイート, どれぐらい, メディア, メモ, もの, わけ, 下記, 中, 事, 事務, 人, 人間, 今日, 他人, 会議, 側, 厚介, 参照, 名前, 場合, 変換, 大量, 好意, 常識, 意見, 批判, 指摘, 敵対心, 文字, 時系列, 有名人, 朝, 朝方, 本人, 業界, 機能, 殆ど, 物, 率先, 発信, 社会, 箕輪, 自分, 自身, 親近感, 赤, 録音, 関係, 音声, 頃,
webpに対応しましたプラグインでカバーしました。 Safariめ!!
2020.01.25
WebP Express(ウェッピーエクスプレス)というWordPressのプラグインがあるので、そちらでコンバート(変換)すれば良いのですが、大量に画像があるサイトはそれで変換できないので下記の対応方法で対応をお願いします。
1. WebP Express使用してコンバートする際に webpが生成されます。webpの生成場所を確認する。現在は下記の配下にwebp画像が作られています。
/wp-content/webp-express/webp-images/doc-root/wp-content/uploads
2.1の配下にwebpの画像を生成するために下記のコマンドを実行します。自分の場合、アップロードしている画像をリスト化して一括処理するプログラミングを実行しました。尚、cwebpがインストールされていない場合、インストールする必要があります。さくらレンタルサーバーには入っているみたいです。
cwebp -q 90 元画像名(階層を含む).png -o 変換後のファイル名.webp (変換先の階層を含む)
こうすることで画像は全てwebpに変換することが可能ですが、これだけでは表示が切り替わらないので下記の画像を参照しプラグインの設定を変更してください。
ちなみにこのwebp(ウェッピー)はグーグルさんが開発したものらしいです、大体のブラウザが、こちらの webpに対応しているのですがSafariとIEは非推奨みたいなんですよね。何れwebpに対応すると思います…思いたい。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, 2.1, cwebp, doc-root, Express, Safari, uploads, webp, webp-express, webp-images, WordPress, wp-content, アップロード, インストール, ウェッピーエクスプレス, お願い, カバー, コマンド, コンバート, サーバー, サイト, さくら, そちら, それ, ため, プラグイン, プログラミング, リスト, レンタル, 一括, 下記, 使用, 処理, 場合, 場所, 変換, 大量, 実行, 対応, 必要, 方法, 現在, 生成, 画像, 確認, 自分, 配下, 際,
テキストを日本語ボイスに変換してくれるしょぼいWindowsソフトを作ったよ。
2020.01.21
VS2017のC#で、テキストを日本語ボイスに変換してくれるしょぼいWindowsソフト( 滑舌が悪いけどYOUTUBERしたい人用)を作ったよ。自分はかなり滑舌悪いくてどもるので、YOUTUBER向かないのですがユーチューバーしてみたい願望があったので、Gさんの「Cloud Text-to-Speech API」で適当に作ってみた。ちなみにまだYOUTUBERするかは決めてない!
APIですが月に0?100万文字までは無料枠なので、大量に使わない限り無料枠で収まると思います。これを他の人に提供しようとするとアウトだろうけど・・。
自分だけが使用するのには何とかその範囲内かと思います。
尚、ソースコードを提供します可変してお好みで使ってください。大量のテキストをボイス変換した場合、ビジーになるかもしれません。そこら辺の処理は入れてません。またGさんからダウンロードしたJSONファイルを置いている階層に合わしてください。
参考にしたサイトは下記になります。
https://cloud.google.com/text-to-speech/docs/quickstart-client-libraries?hl=ja#client-libraries-install-csharp
フォームのオブジェクトの配置は下記になります。画像を参照ください。
ソースコードは下記になります。
using System;
using System.IO;
using System.Windows.Forms;
using Google.Cloud.TextToSpeech.V1;
namespace テキストを日本語ボイスする
{
public partial class Form1 : Form
{
public Form1()
{
InitializeComponent();
}
private void button1_Click(object sender, EventArgs e)
{
if(richTextBox1.Text.Replace("\r", "").Replace("\n", "") == "")
{
MessageBox.Show("文字を入力してください");
return;
}
Environment.SetEnvironmentVariable("GOOGLE_APPLICATION_CREDENTIALS", "C:\\xxxxx\\xxxxx\\xxxxx\\xxxxx.json", EnvironmentVariableTarget.Process);
TextToSpeechClient client = TextToSpeechClient.Create();
SynthesisInput input = new SynthesisInput
{
Text = richTextBox1.Text.Replace("\r", "").Replace("\n", "")
};
VoiceSelectionParams voice = new VoiceSelectionParams
{
LanguageCode = "ja-JP",
Name = "ja-JP-Wavenet-A",
SsmlGender = SsmlVoiceGender.Neutral,
};
AudioConfig config = new AudioConfig
{
AudioEncoding = AudioEncoding.Mp3,
SpeakingRate = f1(trackBar1.Value),
Pitch = f2(trackBar2.Value),
};
var response = client.SynthesizeSpeech(new SynthesizeSpeechRequest
{
Input = input,
Voice = voice,
AudioConfig = config
});
DateTime dt = DateTime.Now;
string dttimename = dt.ToString("yyyy-MM-dd-HH-mm-ss");
using (Stream output = File.Create("voice-" + dttimename + ".mp3"))
{
response.AudioContent.WriteTo(output);
Console.WriteLine($"Audio content written to file 'voice - " + dttimename + ".mp3'");
MessageBox.Show("生成しました=>>voice - " + dttimename + ".mp3");
System.Diagnostics.Process.Start(Directory.GetCurrentDirectory());
}
}
private void trackBar1_ValueChanged(object sender, EventArgs e)
{
label3.Text = string.Format("{0:0.00}", f1(trackBar1.Value));
}
private void trackBar2_ValueChanged(object sender, EventArgs e)
{
label4.Text = string.Format("{0:0.00}", f2(trackBar2.Value));
}
private double f1(int a) {
return Convert.ToDouble(a) / 100;
}
private double f2(int a)
{
return Convert.ToDouble(a) - 20;
}
}
}
変換したボイスはこんな感じです!
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
0, 100, 2017, API, Cloud, json, Text-to-Speech, VS, Windows, YOUTUBER, アウト, お好み, かなり, コード, これ, ソース, そこら辺, ソフト, ダウンロード, テキスト, ビジー, ファイル, ボイス, ユーチューバー, 万, 人, 他, 使用, 処理, 場合, 変換, 大量, 提供, 日本語, 月, 枠, 滑舌, 無料, 範囲, 自分, 適当, 限り, 願望,
ユーザーは動画を30秒で判断するYOUTUBE30秒時代の到来。
2020.01.09
ユーザーは動画(YOUTUBE等)を
30秒で判断する時代になっていくと思います。
動画が始まってから30秒で面白い動画なのか、自分の好みの動画なのかは
何となく動画を大量に見ていくと分かるようになります。
そしてYOUTUBEの動画を飛ばし飛ばし再生して
面白そうだったら最初から最後まで観たり、時間がなければ
その部分から再生してみるユーザーが徐々に増えていくと
自分は考えています。
動画のタイトルやサムネイルで釣ったとしても
中身のない動画は30秒以内にスキップやスルーされる時代に
なっていくのではないかと思います。
ちなみに自分は音楽のランキングを視聴する場合、
曲の冒頭部分、10秒ぐらいで判断して
自分の好みの曲ではなければスキップします。
YOUTUBEは長時間の動画などが収益を得やすいらしいですが
登録者数を増やす場合は質もある程度じゃないと難しいかなと思います。
30分、15分、10分、3分動画がYOUTUBEの大半の動画だと思います。
この頃は1時間動画も見掛けるようになりましたが
余程、クリエイティブな動画ではないと正直なところ、ユーザーに
飽きられてしまう可能性が高いと思います。
動画を見る一人のユーザーとして意見を記載しました。
皆さんはどう思いますか?
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
10, 15, 30, youtube, サムネイル, スキップ, スルー, タイトル, ユーザー, ランキング, 中身, 再生, 冒頭, 判断, 到来, 動画, 収益, 場合, 大量, 好み, 時代, 時間, 曲, 最初, 最後, 登録者, 等, 自分, 視聴, 質, 部分, 長時間, 音楽,
大量データをDBに高速にインストールする方法。
2019.04.13
LOAD DATA INFILE 'data.csv' INTO TABLE tblname FIELDS TERMINATED BY ',' LINES TERMINATED BY 'rn';
この一行の命令で…かなり高速にインストールできます。
インストールする前に、ファイルのチェックを行い整合性などが
正しければ一括にインストールするという具合がよろしいかと思われます。
https://www.youtube.com/watch?v=rrvL2-jqZ-4
ドロップシッピングの大量データを入れ込むときに役立ちそうだ・・・。
自分あまりSQLの事を知らないですね。そろそろSQLの知識も増やそうと
思っています。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
-jqZ-, 2, 4, BY, com, CSV, data, db, FIELDS, INFILE, INTO, LINES, load, n, nbsp, rrvL, SQL, TABLE, tblname, TERMINATED, youtube, インストール, かなり, シッピング, チェック, データ, とき, ドロップ, ファイル, 一括, 一行, 事, 具合, 前, 命令, 大量, 整合性, 方法, 知識, 自分, 高速,
今だけなのか今後もなのか?
2016.09.08
個別面談で、こんな事を社長から投げかけられた。
「仕事が早い遅いは評価の対象にはしない」とのこと。
自分が仕事が早いか遅いか分からないので、社長の意図まで
あまり分からなかったのだけど、コレは今だけの話かもしれないなと
思っています。大量の仕事が舞い込んできた場合、
仕事が捌けなればやはり自分なら評価下げるよなと思うわけです。
自分は冷たいやつなので、そう思うだけなのかもしれない
けれど・・・。何かこの話は今だけの話かもしれないなと感じました。
ちなみに自分は、自己分析しても仕事がそれ程捌ける方では
ないような気がします。
早いのか遅いのか問われると、おそらく普通かなと
感じます、タイピングに関してはめちゃくちゃ遅いです。
スペルミスも多いし。自分が評価すれば
まぁ普通に頑張りましょうモノです。
評価は社長が決めることなので
自分の主張することは、半分ぐらい言えたのか、
半分以下の伝わりだったのか分からないですね。
どうも自分はコレも出来ますよ。
アレも出来ますよっていうのは苦手です。
今も昔も変わらない
社長が何を考えているのか分からない所です。
それが社長なのかもしれないなと感じました。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アレ, こと, コレ, スペル, ダイビング, ミス, もの, やつ, 主張, 事, 今, 今後, 仕事, 個別, 分析, 半分, 場合, 大量, 対象, 意図, 方, 普通, 気, 社長, 自分, 自己, 苦手, 評価, 話, 面談,
WinSCPというソフトが有るのだけど。
2015.07.16
WinSCPというソフトが有るのだけど自分はこのソフト、FTPのソフトだと思い込んでいたけど・・。SCPという名前の通りSCP(転送プロトコル)機能がついてたりする。面倒くさい事をさらっとやってくれるフリーソフトなわけです。そうとは知らず今までインストールすることが無かったんですけど、この度、インストールしました。ちなみに何が良いかというとFTPサービスをサーバ環境へインストールしなくてもファイルのアップロードが可能だということです。FTPがインストールされていない環境だととても重宝しそうな気がします。
ダウンロードはこちらから、WinSCP
メモがてらにもう一つ、大量のsqlデータを一括でインポートしなくてはならなくなり、昨日、調べていたらこのようなコマンドで解決することがわかりました。まず、Linuxサーバでかつポート22番が開いている事が前提です。windowsですとTera Termでサーバにログインし下記のコマンドを入力します。
mysql -u ユーザー名 -D データベース名 -p
//エンター後、Passwordの入力を行ってください。
次にMYSQLに切り替わったら、下記のコマンド入力してインポートを行います。この時の注意点ですがエラーなどが出る場合はエクスポートしたsqlファイルの最終行あたりに記入されているデータベース名やユーザー名が移行する側の名前になっているかが大事になります。なっていない場合、修正をかけ再処理を行うとインポートが行えるはずです。 尚、サーバ上に事前にsqlファイルをアップロードして置いてから処理を行ってください。
USE データベース名(インポートしたい)
SOURCE 階層を含むファイル名(/xxxx/xxxx.sql)
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
22, FTP, Linux, My, SCP, SQL, Tera, Term, Windows, WinSCP, アップロード, インストール, インポート, こちら, こと, コマンド, サーバ, サービス, ソフト, ダウンロード, データ, ファイル, フリー, プロトコル, ポート, メモ, もう一つ, ログイン, 一括, 下記, 事, 何, 入力, 前提, 可能, 名前, 大量, 度, 昨日, 機能, 気, 環境, 自分, 解決, 転送, 通り, 重宝,