@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

投稿時間を6時から7時へシフトしました.通勤時間帯に.
2025.05.28
おはようございます.今までは6時投稿だったのだけど通勤時間帯にシフトしました、今まで6時にしていたのは、競合を避けて投稿していた感じになります.その昔まえは9時投稿にしていました.9時に投稿していた理由は仕事の関係者に記事を読まれたくなかったので、仕事が始まる9時に予約投稿していた形になります.
前置きはこれぐらいで本題、7時にシフトしたことを書いていきます.7時にシフトした事により微量にアクセス数が増えるのかも知れないという淡い期待もあります.
理由はSNSなどと連動しているので、通勤時間帯で電車やバスで通勤しているひとの目に止まりそうな気がしています.
今までより競争相手は多いもののユーザー傾向から言えば、その層が一番多いので期待もあります.もし上手く行かなったら「しれっ」と元の時間帯に戻しているかも知れません.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アクセス数, パス, ひと, まえ, ユーザー傾向, 予約, 元, 前置き, 層, 形, 微量, 時間帯, 期待, 本題, 淡い期待, 目, 競争相手, 競合, 通勤時間帯, 電車,

GW3日目の今日の日程はこんな感じです.早朝に.
2025.05.01
おはようございます.これは予約投稿なのでこれを書いている時は子旅に行く準備をしていると思います.昨日、小旅プランのアンケートをしてみたのですが、投票0だった為、自分で決めることにしました.アンケートでは高松へ行きその周辺の島へ行くプラン、土佐入野へ行きTシャツアート展に行くプラン、最後に中村駅から沈下橋を見に行くプランが有りました.
その中から考えて選んだ結果、毎度のTシャツアート展に行くプランにしました.これを選んだのには理由があってまず高松へ行くプランはちょっと慣れない旅なので疲れそうなと旅費が割高感があるので諦めました.じゃ中村駅から沈下橋を見に行くプランにしようと思いましたが、駅から沈下橋へ行くバスがGW期間中運休だということなので、本当はこちらに行きたかったんだけども諦めました.

なので、今回は妥協して無難なTシャツアート展に行くことにしましたがもうTシャツアート展に行くことは無さそうな気がしています.最後になるかもしれないのでちょっと頑張って撮ってきます?
iphoneも新調したのできれいに撮れたら良いけども.尚、お天気は本日は曇り空だそうです🐼.
写真を撮ったり動画を撮ったりするにはちょっと曇っていた方が良いと聞きますが、あれ神話かもですね普通に晴天のときの方が映えますよね.恐らく昔のカメラはそうだったんだと思いますが今のカメラは性能が良いのでいろいろな天候に対応してきていると思います.
では、いってきまーす!✋️
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
あれ神話, アンケート, カメラ, シャツアート展, パス, プラン, 中村駅, 割高感, 土佐入野, 天候, 性能, 投票, 旅費, 晴天, 曇り空, 最後, 期間中運休, 毎度, 沈下橋, 高松,

健康診断に行くのにバスを使ってみました.とさでんマイ時刻表も.
2025.03.10
おはようございます.先日、健康診断に行くのにバスを使ってみました、そして、とさでんマイ時刻表も使ってみましたという話を書いていきます.
自分が健診にいった日はちょうど朝から雨がふりそうな予報が出ていたのだけども、バスが来るまで雨がふらないだろうと思っていたらバス停のりばまで、残り半分ぐらいの所で雨が降り出して慌ててパーカーを被りバス停のりばまで行ったんだけど、予定通りにバスは来ず2分遅れで乗車.
乗車して驚いたのは立って乗っている人はいなかったのだけど、座席はほぼ埋まっていたところです.こんな高知県でも一応通勤時間は乗っている人が結構いるだなって驚きでした.
40分ぐらいで健診場所に付いたのだけど、雨に打たれて…頭のヘア―がもじゃもじゃ頭になっていて明らかに不審人物ぽっい頭になっており最悪だなって思ったのですが、まったくもじゃもじゃヘア―がもとに戻らない.
それが気になって、内心、健診どころではなかったです、まぁそんなこんなで健診が終わった頃には外は晴れていましたけどね.
因みにとさでんマイ時刻表は使えるのだけど、UIをもっと改善してほしいなぁなどと思いました.自分はブラウザ板しか使ったことが無いけどアプリってあるですかね.
とさでんマイ時刻表の良い点はリアルタイムでバスが何分遅れとか分かるところですね.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
さでんマイ時刻表, でんマイ時刻表, パーカー, パス, バス停のりば, ブラウザ板, ヘア, もと, リアルタイム, 不審人物, 乗車, 予報, 健診, 健診どころ, 健診場所, 内心, 分遅れ, 半分, 座席, 高知県,

快適なのかわからないけど、フラットに寝れるバスを開発した高知県のバス会社.
2025.02.03
おはようございます.快適なのかわからないけど、フラットに寝れるバスを開発した高知県のバス会社.いやーこれ事故したときに悲惨な感じになりそうだなと思ってしまったのは自分がマイナス思考だからなのかな?
乗ってみたいけど…なんかヤダ.運行するときはカーテンとか取り付けられているのかなぁ.
全然別話ですみませんが今月の18日にドン・キホーテさんが高知県で開業されるとかで一部の人が騒いでいるようです.オープンしたらTVのニュースになるだろうな.これでドン・キホーテさんは全国をコンプリートした形になるそうです.余程、高知県には需要がないと思っていたんだろうな、収益的には赤字経営になりそうな気がします.
恐らく高知県側から打診があってのオープンだと思います.
ドン・キホーテオープンして時間が経ったら見に行ってみます.いまの段階では全く魅力を感じない…ドン・キホーテ、ヨドバシとかが来たほうが自分的には嬉しかったです.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
オープン, ガーデン, ドン・キホーテ, ドン・キホーテさん, ニュース, パス, バス会社, マイナス思考, ヤダ運行, ヨドバシ, 一部, 別話, 形, 打診, 段階, 赤字経営, 需要, 高知県, 高知県側, 魅力,

映画観てない月に.
2024.04.13
おはようございます、4月は映画観てない月になりそうです.少々物足りないなって感じつつも観ないで終わりそうな気がします.もしかしたら『4月になれば彼女は』を来週も上映されていたら観に行くかもですけど、その他、観ようかなぁって思っている映画は今のところないです.
デデデデも結局、観に行かないカテゴリに入っています.

今思っているのはGWどうしようかなって事ですかね.GWに京都に行こうかなって思っていたりいなかったりしています.今回はバスで行くつもりでいるので予約が取れればなんですけどね、予約が取れそうなら日帰り弾丸でいくつもりです.
どうなるのかは今の段階ではわかりません.金銭的にも厳しい生活を送っているので見送る確率も高いです.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
4月, GW, Photo by Johannes Plenio on Pexels.com, カテゴリ, その他, ところ, パス, 予約, 京都, 厳しい生活, 彼女, 日帰り弾丸, 映画, 月, 段階, 気, 確率, 観,

Dockerは楽だなという事を今頃理解しましたよ。 #vbox #docker
2022.10.03
おはようございます、月曜日の朝はテンション低めな方も多いはず😇。
さて、今日は先週の木曜日と金曜日にふと今後のためにDockerをもう少し触ってみようと思い作業終了後触ってみました、触れて気づいた事は開発環境を作るのがとても楽だということ(気づくの遅い?🫠)。自分は昔の人間なのでvisualboxばかり触っていたのですがDockerは素晴らしい。サーバー周りが得意な人にイメージを作ってもらってそれを共有すれば皆、同じ環境下で開発が出来るので良いという事に今頃気づいた・・・。
docker run -it -d -v C:\var\www\html\:/var/www/html --privileged -p 80:80 --name こんてな命名 イメージid /sbin/init
※Visualboxでも可能ですけどね。Dockerのだとそこが楽だしマウント(フォルダ共有)もスムーズに行くので自分は良いなと感じました。
ちょっと残念だった点は自宅で作業している中、バッファローのNAS🍆に作業ファイルを入れているのですが、それとは共有出来なかった点です、対応として実PCをrobocopyしてNASと同期を取るという形にしました。これで問題はなくテスト環境下で開発ができます。尚、高級なNASではそういう問題なく上手くいくそうですよ。※NASはバックアップデータになりました。
robocopy <コピー元> <コピー先> /E /DCOPY:DAT
尚、mirのオプションにしなかったのには理由があります。コピー元のファイルが消えたり、ディレクトリが破損した場合、コピー先のファイルやディレクトリが消えて無くなるらしいので・・・。完璧なミラーリングは辞めました。
こんな感じで快適なテスト環境が作れます(上記のコマンド参考に)。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
--privileged, -p, -v, 80, D-, docker, html, ID, init, IT, name, run, sbin, var, vbox, Visualbox, www, イメージ, こと, こんてな, サーバー, スムーズ, そこ, それ, ため, テンション, パス, フォルダ, マウント, 事, 人, 人間, 今後, 今日, 今頃, 低め, 作業, 先週, 共有, 可能, 周り, 命名, 得意, 方, 昔, 月曜日, 朝, 木曜日, 理解, 環境, 皆, 終了, 自分, 行, 金曜日, 開発,

ドキュメンタリー・The Future Ofをネトフリで。
2022.08.03
こんばんは、今日は昨日の夕方に書いた記事をUPします。今頃、自分は寝ているはずです…😴。
昨日のウォーキングでThe Future Of(ざ・ふぃーちゃーおぶ)のシーズン1を全話Netflixで視聴しましたので、感想を残していきます。最初の一話目は犬だったのでどうだろうと思いつつ観て二話三話と観ていきました(一日一日と一時間ぐらい)。遠い未来と近い将来(未来)の話が一話事にあります。
近い未来、そうなるだろうなと言う所と「いやいやまだ早いでしょ」って言う話もありつつなんですが、最終話近くの話は現実に起こりそうだなと思えるものやそうなって欲しいなという話などもありましたね。ドキュメンタリーなので問題提起もしていたので其処ら辺も良いじゃないかなって。
まとめ、科学好きな青年あたりが観ると良いような話かなと思います。また少年などかな、大人が観ると少し物足りなさを感じます。もっとがっつり難しく作ってくれたほうが自分としては良かったかなと思いますが、知らない技術も知りましたからそういう面では良かったです。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, Future, Netflix, of, The, UP, ウォーキング, オブ, シーズン, ちゃー, ドキュメンタリー, ネトフリ, パス, ふい, もの, 一, 三, 事, 二, 今日, 今頃, 作, 全話, 其処ら, 問題, 夕方, 大人, 将来, 少し, 少年, 感想, 所, 提起, 昨日, 最初, 最終話, 未来, 犬, 現実, 科学, 自分, 視聴, 記事, 話, 辺, 青年,

インフラは動いて当たり前だからって思い込みは。
2022.07.07
おはようございます。au通信障害直りましたね。
インフラは動いて当たり前だからって思い込みは捨てないとなって今回の障害で思いました。自分のサーバはたまに落ちるのでまたサーバーが落ちただなってぐらいに思われているかもしれません。
今回の通信障害も其れぐらいの具合に思っておく方が良いと思います、日本は時間にも正確で、その代表たるものが電車です。遅延しても其れに対しあと何分で電車が来るのか分かりますし本当に素晴らしいと思います。またタクシーやバスでも同じく正確です。タクシーやバスが一時間も遅れてくるという国もある中、いろいろときっちり正確な日本です…。
今回のことで余りにもきっちりなのは良い反面、遅れていても許せる心、お互い様だねって思える精神が欠如していきそうな気がします。そして当たり前が当たり前じゃない時の対応策。有事の対応策を自分で考えとくのも良いじゃないかと感じました。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
au, いろいろ, インフラ, きっちり, こと, サーバ, サーバー, タクシー, たま, パス, もの, 一, 中, 今回, 代表, 何分, 其れ, 其れぐらい, 具合, 反面, 国, 対応策, 当たり前, 心, 方, 日本, 時, 時間, 有事, 本当, 欠如, 正確, 気, 精神, 自分, 通信, 遅延, 障害, 電車,

素晴らしいコードに出会うという事はとても大事ですよね。夜も眠れません😏
2022.03.22
おはよう御座います。
素晴らしい世界を聴きながら。
プログラマーにとって技術力を上げるのは多分、向上心があるからだと思います。
さてプログラミングをするにあたって素晴らしいコードに出会うという事はとても大事です。素晴らしいプログラマーをフォローして終わりにしていませんか、彼ら彼女たちのgithubなどを見てみてください。素晴らしいコードに必ず出会います。最初は何を書いているのかわからない事もあるかもしれませんが、その技術を理解すればするほど、これは美しくて素晴らしいコードだという事が理解できるはずです。
プログラミングは書けば書くほど、上達するというよりはシンプルで無駄のないような方法を見つけ出す思考身につけると上達するという事だと自分は思っています。闇雲に書くだけではそのコードを書く技術力は上がらないと思います。世の中には強者がゴロゴロといます。それらのコードから技術を習得するのが一番の手っ取り早い技術力の上げ方かと思います。そしてそのベースとなるのは基礎が身についているかどうかだと思っています。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
8, com, github, https, TWo, vwLaT-, watch, www, youtube, コード, これ, シンプル, パス, フォロー, プログラマー, プログラミング, 上達, 世界, 事, 何, 向上心, 夜, 大事, 彼ら, 彼女, 思考, 技術, 技術力, 方法, 最初, 無駄, 理解, 自分, 身,

WindowsやMACのタイピングを表示するアプリと検索すれば!?
2022.01.18
この頃、気温が若干低いなという感覚があります、昨日なんて寒くてウォーキングを諦めました😌。
さてWindowsやMacのタイピングを表示するアプリと検索すれば、それなりのアプリが出てきますのでそちらを使用してみてください。では、ちょっと冷たいのでメモを残しときます。Macの場合、KeyCastrというフリーのアプリが有名らしいですね、因みにこのアプリ、Githubでしか公開していないので、ターミナルで操作とか出来る人じゃないとインストール出来なそうです。
その他にもキーボードのログ(キーストローク)を表示するアプリは存在します。一応、リンクを貼っときますね。こちらから参照ください。👉https://ja.altapps.net/soft/keycastr リンク切れになっていた場合は自分で上記のようなキーワードで検索すれば見つかるはずです。
あと、GithubでKeyCastrをインストールする方法の動画も貼っときますね。
https://github.com/keycastr/keycastr
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
altapps, github, https, ja, KeyCastr, Mac, net, soft, Windows, あと, アプリ, インストール, ウォーキング, キー, キーボード, キーワード, こちら, ストローク, そちら, その他, それなり, ターミナル, ダイビング, パス, フリー, メモ, リンク, ログ, 上記, 人, 使用, 公開, 参照, 場合, 存在, 感覚, 操作, 昨日, 有名, 検索, 気温, 自分, 若干, 表示, 頃,
.jpg)
ネット常識力は神レベルでもない。知らないことのほうが多いかも?
2021.10.11
今日は雨が降っています。高知県は結構な雨ですね…。自分は雨音が好きなので全然良いですけど雨が嫌いな人にとっては憂鬱な一週間になるかもしれませんね。
さて、昨日と今日はお国の偉い人が決めたデジタルの日です。Yahoo!でも何やら全国統一ネット常識力模試試験が開催されています(10月31日まで)。15問正解出来たら神の称号がもらえるですが、問題が簡単なのか自分が一般人より知っているのか分かりませんが、全問正解でした・・・。
自分でも神の称号がもらえるので、駆け出しITエンジニアさんも同じく神の称号を貰えるはずです。貰えなかったら逆にITエンジニアになる道のりはカナリ遠いかもしれないと思いますが諦めないでください。こんな事があるので・・・。
先日、プロフェッショナルでANAのグランドスタッフさんの回を見ました、彼女は新人研修の時に受けたテストは最下位でしたが、今ではみんなを率いるプロフェッショナルな女性になっています。人生ってわからないですよね、本当にそう思います。こういうのを塞翁が馬っていうですかね、新人研修のテストは最下位でしたが、それがきっかけで彼女は人一倍努力したんだと思います。逆に最下位にならなければ違った道になっていたと思います。なので、道のりが遠い人こそ、努力していれば道が拓けるかもしれないです?。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
10, 15, 31, ANA, IT, Yahoo, エンジニア, グランド, こと, スタッフ, デジタル, テスト, ネット, パス, プロフェッショナル, みんな, レベル, 一, 一般人, 事, 人, 今, 今日, 先日, 全問, 全国, 問題, 回, 国, 女, 嫌い, 常識, 彼女, 憂鬱, 新人, 日, 昨日, 時, 最下位, 模試, 正解, 研修, 神, 称号, 簡単, 結構, 統一, 自分, 試験, 逆, 道のり, 開催, 雨, 雨音, 駆け出し, 高知県,

Notionというアプリが定着しているけどどうなのかな。
2021.08.15
雨はシトシトと降っている、平日に土日の記事を予約投稿しています?。
非ITエンジニアの方はあまり知らない、もしくは、はじめて聞いたという方もいると思いますがITエンジニアの方々にはNotionというアプリが結構、定着しています。使用していなくてもIT界隈の皆さまは名前だけは聞いたことあるよという人は多いはずです。Notionというアプリを簡単に説明するならばメモアプリです?。
それも無料枠で結構使える、メモアプリ。どこかの記事では神アプリとも言われているぐらい良いアプリですが・・・(*´ω`*)、自分はまだこのメモアプリを使用しておりません。なので、今回どんなアプリなのかを知るために平岡雄太さんのYOUTUBE動画を視聴しました。
それを見てITエンジニアが使うわけだと思ったわけです、その理由はメモした情報をデータとして管理・整理することが出来るという所です。データベースの使い方を平岡雄太さんが詳しく分かりやすく解説していますので、これからNotionを使用したい方は必見の動画になると思います。
因みにNotionは、日本語対応をしていないので、ページをGさんの翻訳機能を使用して使用するか英語を理解するかになります。尚、2021年中に日本語対応する可能性があります、遅れたとしても2022年には日本語に対応することになりそうです、そうなれば一気にNotionというアプリが広がりそうな気がします。そんな訳もあり今回紹介しました。
尚、自分としてはガントチャートが使用できるというのはすごく便利だなと思いました。
人気の情報共有ツール「Notion」が2021年中に“日本語対応“へ──日本第1号社員を直撃
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
IT, Notion, youtube, アプリ, エンジニア, こと, それ, ため, データ, データベース, どこか, パス, まだこ, メモ, わけ, 予約, 人, 今回, 使い方, 使用, 動画, 名前, 土日, 定着, 平岡, 平日, 情報, 所, 投稿, 整理, 方, 方々, 枠, 無料, 理由, 界隈, 皆さま, 神, 管理, 簡単, 自分, 視聴, 記事, 説明, 雄太, 雨, 非,

算数問題が100問ランダムで生成されます。そんなツールを作りました。
2021.08.08
暑い日が続いています、このまま茹でダコにでもなってしまいそうな部屋の温度ですが・・・エアコンは殆どOFFで日中を過ごして夕方から夜中まで稼働させております。そんな日を過ごしていて、たまに外へ出かけると夏休みなのか、学生さんたちが自転車でうろうろしているのを見かけるようになってきました。
そんな中で算数問題が100問ランダムで生成されるそんなツールを作りました。100問を暗算で計算すると中々、100点が取れないという事がわかってしまい、自分でもビックリしてしまいました。簡単なはずなのに何故か、足し算を間違えて引いてしまったりと単純なミスがあり、満点が取れないという事実をしってしまい、少し落ち込んでいます。

あのドラゴン桜の中にある数学教師がやるスパルタのあれは本当にそうなんだなって実感しました。これを毎日解き続けることにより、算数(数学の基礎)に打ち勝つことが出来そうですね。因みに計算などしない日々を過ごしているとロクに計算できない頭になりますよ。自分は計算しない字も書かないので読み書きが出来ない、結構、ヤバい状況になっているようです、皆さんもこんな自分のようにならないように、たまには頭の体操をすることをオススメします。
最後に100問:算数のリンクを貼っときます。
https://zip358.com/tool/arithmetic/
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
100, off, あれ, エアコン, こと, このまま, これ, スパルタ, たま, ツール, ドラゴン, パス, びっくり, ミス, ランダム, 中, 中々, 事, 事実, 単純, 問題, 基礎, 夏休み, 夕方, 外, 夜中, 学生, 実感, 少し, 教師, 数学, 日, 日々, 日中, 暗算, 本当, 桜, 殆ど, 温度, 満点, 生成, 稼働, 算数, 簡単, 自分, 自転車, 茹でダコ, 計算, 足し算, 部屋,

ファイナルファンタジー7リメイクが発売して結構月日が経ちますが。
2021.06.15
ファイナルファンタジー7リメイクが発売して結構月日が経ちますが未だにPART1をクリアしておりません、いまエピーソード14のクエストをちょびちょびと解決していってます。まだPART1もクリアしていないので6月10日にリリース(発売)したFINAL FANTASY VII REMAKE?INTERGRADE(ファイナルファンタジーVII?リメイク インターグレード)なんて多分、PS5(PlayStation5)が民に行き渡ったぐらいに始めようと思っています。ファイナルファンタジーVII?リメイク インターグレードはPS5でしか遊べないそうなのです。正直なところ売上は赤字だろうけど、Sonyとそういう契約を結んでいるだろうからスクエアエニックスはペイできる・・・?はず。
しかし、PlayStation5の品不足や転売(高価)はまだまだ続くでしょうね。楽天では高値でPlayStation5を販売している業者が結構います。自分はFF7Rをクリアしても当分は購入せずに頃合いをみて購入しようと思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, 10, 14, 5, 6, 7, FANTASY, FINAL, INTERGRADE, Part, PlayStation, PS, REMAKE, SONY, VII, いま, インター, エピーソード, クエスト, クリア, グレード, スクエアエニックス, ところ, パス, ファイナルファンタジー, ペイ, リメイク, リリース, 品不足, 多分, 契約, 月日, 未だ, 業者, 楽天, 正直, 民, 発売, 結, 解決, 販売, 赤字, 転売, 高価, 高値,

TensorFlow Lite(テンソルフロー ライト)をインストールしモデル実行まで。
2021.06.14
ラズベリーパイ3にTensorFlow Lite(テンソルフロー ライト)をインストールしモデル実行まで軽く字幕で紹介した動画が下記になります。インストール方法は公式に書かれた通りに実行すれば上手くインストール出来るはずです。比較的に低スペックのマシンでも動くはずなのです、どうしてもエラーが出て動かないようであれば、それはおそらくあなたのマシンに問題があります?。
動画でハマりどころがあるという事をブログで解説しますと書いていますので、そのハマりどころを解説します。。。
TensorFlow Lite(テンソルフロー ライト)で動かす場合、label_image.pyの修正箇所が公式に書かれていると思いますが・・・?、ここで自分がハマり、実行するコマンドを打ってもパラメーターがどうたらというエラーが出力されて動きませんでした。結論から言うと原因はマスターのソースコードにあったのです。修正を要領よく修正しては駄目だった。直接的な原因となったのは–num_threadsのパラメーターを投げていたのが原因でした。
公式では下記の内容に変更しなさいと書かれています。tf.lite.Interpreterの部分を置き換えればよいだろうと思っていたのです。
interpreter = tf.lite.Interpreter(model_path=args.model_file)
マスターのソースコードは若干、公式とは違ってこのようなソースコードになっていました。
interpreter = tf.lite.Interpreter(
model_path=args.model_file, num_threads=args.num_threads)
渡す引数が一つ増えていたので、自分はそれを残していたのですが・・・?、これでは動かないのです。そう・・num_threads=args.num_threadsは削除してあげないとモデルを動かすことが出来なかったのです。それがわからず渡すパラメーターが駄目なんだとか思って四苦八苦していました。
自分みたいな修正方法している方も中にはいると思ったので、今回、初心者がハマった沼を紹介しました?。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
3, image, label, LITE, py, tensorflow, あなた, インストール, エラー, コード, ここ, コマンド, スペック, ソース, それ, テンソル, はい, パス, パラメーター, フロー, ブログ, マシン, マスター, モデル, ライド, ラズベリー, 下記, 事, 修正, 公式, 出力, 動画, 原因, 問題, 場合, 字幕, 実行, 方法, 箇所, 紹介, 結論, 自分, 解説, 通り,

SEOって意味があるのかわからないけれどAll in One SEOの採点は気にしてる。
2021.05.14
SEOって意味があるのかわからないけれどAll in One SEOの採点は気にしてる自分。ワードプレス(WordPress:WP)にはオールインワンSEO(エスイオー)というプラグインがあり、最新版には記事単位でSEO採点をしてくれる機能が無料でついている。このWPプラグインのコード(中身の処理)がどうなっているかは知らないけれど、恐らく記事のデータはWPプラグインの提供元(All in One SEO)へデータを送信していることは間違いないのではないかと思っています。このSEO採点基準は投稿フォームの下の方にヒントとして記載されているので、その基準に記事を書けばスコアは最低でも70点以上の採点になるはずです。
因みにこの頃、書いている自分の記事は大体、80点以上の採点になることが多くなってきている。この機能が導入されてから記事を見返したり、SEOの得点を気にするようになった。それでも前から言っているように最終的に記事を読むのは人なので人が読んで評価が良いものを投稿する事こそが最強のSEOだと思っています。
しかし記事が検索サイトに表示されないと人目につかないので、SEOはある程度意識しないといけないなというのが今の自分の考えだったりします。昔に比べて検索の上位を狙うのが難しくなっていることは確かな事で数撃ちゃ当たる戦法はもう難しくなってきています。YOUTUBEは今の所、それが通用するみたいです。
なぜ、数撃ちゃ当たるの戦法が難しくなってきているかといえば、SEOを熟した企業が記事を量産しているから、個人で記事を書いている人が太刀打ちが難しくなってきているのが現状です。
ならば、プログラムで記事を量産させようと思い立ち、先日、記事を自動生成するサービスをいろいろ調べていた。調べると量産させるサービスがあった。そのサービスは「Articoolo(日本語はベータ版:2021年)」というサービスで人工知能の機能を使用し記事が作成されるものだった。試してみた結果、日本語が整っていなく未完成な記事が生成された、今のところは使用できるレベルではない(2021/05)。
まだ、先の話になるのだけどこんな取り組みがある。LINEは日本語に特化した人工知能モデルを作ろうとしている。そのサービスが完成すればそれを使用して記事の自動制作を行えないかという事を自分は考えています。おそらくベータ版サービスは無料で作成できそうなので精度が良ければ使用してみたいと思っています。
今でも自然言語処理と人工知能のことを正しく理解している人であれば、記事を量産できるかもしれないが・・・。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
70, 80, all, in, one, SEO, WordPress, wp, エスイ, オー, オールインワン, コード, こと, スコア, データ, パス, ヒント, フォーム, プラグイン, プレス, ワード, 下, 中身, 処理, 単位, 基準, 大体, 導入, 得点, 意味, 投稿, 採点, 提供, 方, 最低, 最新版, 機能, 気, 無料, 自分, 記事, 記載, 送信, 頃,

FF14を自動起動させてパスワード入力を
2021.03.23
Power Automate Desktop使用してFF14を自動起動させてパスワード入力する事を試みる。パスワード入力の動作を録画して再現して実行してみると動かないので自分で直しました。当初はUI Pathを活用して試してみたけど結局、うまく行かないので凄く単純な方法で動作をさせました。因みにこの方法はFF14が開いている最中に他のアプリを開いたりすると上手く動作することが出来ないので悪しからず。

上記のような設定をします。ウェイト(待ち時間)はご自身のPCによって調整が必要です。キーの送信部分は下記のように設定ください。

これで超長いパスワードを入力することもなくワンパスワードを入力すれば良いようになりました。ワンパスを設定していない方やフリープレイの方は送信するテキストを入力して保存するだけで後は、Power Automate Desktopを起動してフローを再生(実行)することで自動的にFF14が起動してパスワードを入力してくれます。

※前手順としてID保存状態にした状態で上記を実行ください!!!
https://flow.microsoft.com/ja-jp/desktop/

著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
14, Automate, Desktop, FF, path, PC, Power, UI, アプリ, ウェイト, キー, こと, これ, ご自身, テキスト, パス, パスワ, パスワード, フリー, プレイ, フロー, ワン, 上記, 下記, 事, 他, 使用, 保存, 入力, 再現, 再生, 動作, 単純, 実行, 当初, 待ち時間, 後, 必要, 方, 方法, 最中, 活用, 自分, 自動, 設定, 調整, 起動, 送信, 部分, 録画,

現役エンジニアならFizzBuzz問題なんて余裕なのか検証してみたをやってみた?
2021.03.22
【現役エンジニアならFizzBuzz問題なんて余裕なのか検証してみたをやってみた】、この道、10年選手の自分が解いてみた結果、2つの解になることになりました。でも自分はかなり緊張するタイプなのでこういう場ではなんかミスりそうです。2つの解になる理由は15の時、5の倍数でも3の倍数でもあり15の倍数でもあるからです。これに疑問をもつはずなのですが・・・。皆、言わなかったところが日本人的だなと感じました。因みに自分はこういう疑問を言うタイプです、なので衝突が上と起こるのかなと思います・・・。
尚、自分は3分ぐらいです。コードを書くより誰かに書いてもらいたい(^_^;)、もっとタイピングが早くなれば2分ぐらいで書けると思います?ではおつおつでした。
<?php
$ary1 = [];
$check1 = function ($hoge) {
$str = [];
if ($hoge % 3 === 0) {
$str[] = "Fizz($hoge)";
}
if ($hoge % 5 === 0) {
$str[] = "Buzz($hoge)";
}
if ($hoge % 15 === 0) {
$str[] = "FizzBuzz($hoge)";
}
if (!count($str)) {
$str[] = $hoge;
}
return implode(",",$str);
};
$ary2 = [];
$check2 = function ($hoge) {
$str = [];
if ($hoge % 15 === 0) {
$str[] = "FizzBuzz($hoge)";
}elseif($hoge % 5 === 0){
$str[] = "Buzz($hoge)";
}elseif($hoge % 3 === 0){
$str[] = "Fizz($hoge)";
}
if (!count($str)) {
$str[] = $hoge;
}
return implode(",",$str);
};
for ($i = 1; $i <= 100; $i++) {
$ary1[($i-1)] = $check1($i);
$ary2[($i-1)] = $check2($i);
}
print implode(",", $ary1).PHP_EOL;
print implode(",", $ary2).PHP_EOL;
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, 10, 15, 2, 3, 5, ary, check, FizzBuzz, function, hog, hoge, if, lt, php, STR, エンジニア, かなり, コード, こと, これ, ダイビング, タイプ, ところ, パス, ミス, りそう, 上, 余裕, 倍数, 問題, 場, 日本人, 時, 検証, 現役, 理由, 疑問, 皆, 結果, 緊張, 自分, 衝突, 解, 誰か, 道, 選手,

もう3日目ですね。
2021.01.03
もう正月も3日目になってしまいました。休みってなんて早いだろうか。ただの寝正月になってしまった人は結構いるはずです。何せ、コロナですから…。
東京では外出自粛になっている事もあり巣篭もりお正月を迎えたり、お一人様のお正月だった人もいるでしょう。来年はコロナも終息しそうですから何だか弾けたお正月になりそうな気がします。正直なところ、自分はコロナ禍になっても特に日常が変わったという感じではありませんと書きたいところだけど、コロナで変わったということが自分にもあります、まず友人知人に合わなかったことと、映画館に殆ど足を運ぶことが無かったということでした。書いてみると全然変わらなかったわけでもないですね。
ただ学生時代から、ぼっち生活を送っていたのであまり変わらない感じです、ひとりが苦にならない事のほうが多いので自分はコロナ禍になってもあまりストレスを溜め込むこともなく日々、淡々と過ごすことができました。
友人知人と騒いだり遊んだりするのが好きな人はコロナ禍は大きな変化になったと思いますよ。ほんと180度ぐらい変わった日常を2020年過ごした人も中にはいるでしょう。そんな人達にとっては大変な2020年だったと思います。
今年はおそらく後半から、そういうこともなくなると思っています、ニューノーマルからノーマルな日常へ変化していくのだと思っています。是非、そうなってほしいなという気持ちが強いです。どうなるのかは世界中の頑張りにもかかっているし、ウィルスがワクチンに打ち勝たないこともあるでしょうけど・・・。
そんな事を書いているうちに残り少ないお休みが消えていきます。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
3, お正月, こと, ころ, コロナ, ストレス, だだ, ところ, パス, ひとり, ポッチ, わけ, 一人, 事, 人, 友人, 外出, 学生, 寝正月, 感じ, 日々, 日常, 映画館, 時代, 来年, 東京, 正月, 正直, 殆ど, 気, 生活, 知人, 禍, 終息, 自分, 自粛, 苦, 足,

googleドライブ使ってる?
2020.12.01
googleドライブをパソコンにインストールするとgoogleドライブという領域が作らます。その領域を使用すれば他のパソコン間でファイルを共有することが可能です。それぞれPCでも同じパスにしてファイルを共有したい場合はシンボリックリンクを使用します。
やり方はこんな感じです。まずgoogleドライブ領域にフォルダを構えます、次に同じパスにしたい階層(googleドライブの階層ではなく)にシンボリックリンクでフォルダとリンクします。このことにより、シンボリックリンクの階層で作業したファイルなどは、おわかりの通りGoogleドライブに実際は作成されたことになるので、この方法で別のPCにもシンボリックリンクを使用して作成すれば、複数のPCでも同じファイル環境を整えることが可能です。
ちなみにシンボリックリンク作成は管理者権限でDosコマンドで下記のように打ってください。なお、MacとWindowsではコマンドは違います。Macの場合はターミナルになります。
シンボリックリンクとは何かはこちらを参照ください。?****
mklink /D 階層とシンボリックリンク名 階層とgoogleドライブのフォルダ名
ln -s 階層とgoogleドライブのフォルダ名 階層とシンボリックリンク名
WindowsとMacではコマンド名も命名規則も違う感じです・・・ややこしい?なっと。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Dos, Google, Mac, PC, Windows, インストール, おわかり, こと, コマンド, シンボリック, それぞれ, ターミナル, ドライブ, パス, パソコン, ファイル, フォルダ, やり方, リンク, 下記, 他, 作成, 作業, 使用, 共有, 別, 可能, 場合, 実際, 感じ, 方法, 権限, 環境, 管理者, 複数, 通り, 階層, 領域,

アーユーハッピー?
2020.11.28
退職を機に体調不良を整えようとインドの療養施設に滞在した際、肩こり、不眠、ストレスによる湿疹など延々と続く私の訴えをウンウンと聞き取った医師が最後に尋ねた言葉。
「それで、あなたは幸せなの?」。
虚を突かれ、思わずたじろぐ。私たちは何かを手に入れて幸せになろうとしている。モノ。お金。そして健康。でも手に入らなければ不幸なのか?例えば病人は不幸なのか?だとすれば私たちは皆、不幸にまみれて一生を終わるのだ。
だって病と死からは誰も逃れられないもの。でも本当は病人だって、モノやお金がなくたって幸せになれるはず。肝心なのは何かを手に入れることじゃない。ハッピーになること。
「ある」幸せがあるなら「ない」幸せがあったっていいじゃない。そう考えると意外なほどに心は浮き立つ。人生は自由だ。そしてどこまでも開かれている。
アーユーハッピー?
幸福論/ソー、エミコ・・・アー・ユー・ハッピー? インドの病院の医師/稲垣えみ子
昔、録画していた情熱大陸を再度見る。このネタは昔書いたかものとつぶやいた事を再構築するという意味で書いている。この情熱大陸回のラストにナレーターが読む幸福論がじぶんは好きだなと思える。たまに忘れてしまうけどこの言葉はとても良いな、人生は自由だ。人生を狭めているのはじぶんの心だと、もっと気楽に生きていけるようにしたいと。
自分は稲垣えみ子さんのこの言葉に虚(きょう)を突かれたじろぎました。特に「ない」幸せがあったっていいじゃないという言葉に?
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アー, あなた, インド, エミコ, えみ子, お金, こと, ストレス, ソー, ネタ, パス, ハッピー, もの, ユー, 一生, 不幸, 不眠, 不良, 人生, 体調, 何か, 健康, 再度, 医師, 幸せ, 幸福, 心, 情熱大陸, 意外, 手, 施設, 昔, 最後, 本当, 機, 死, 湿疹, 滞在, 病, 病人, 病院, 療養, 皆, 私, 稲垣, 肝心, 肩こり, 自由, 虚, 言葉, 誰, 退職, 録画, 際,

高知県立足摺海洋館SATOUMIに行ってきた?
2020.10.29

高知県立足摺海洋館SATOUMIに行ってきましたよ?、逆光で建物の外観を上手く撮影できなかったのですが、サトウミをでっでーんと撮影。中に入るとスタッフさんが体温を測ってきます。体温をパスして、一応おとな・なので1200円支払って中に入ると、予想よりは、しょぼくなかったのが第一印象です。もっとしょぼいかなと想像していたのだけど思っていた以上になんかオシャレだな・・・と。
中に入っていろいろパシャパシャ撮影したけど、全部公開すると行ったときに楽しみがなくなるので一部の写真と動画を公開します。

最終的な高知県立足摺海洋館SATOUMIの感想はコンパクトな今どきな水族館ですね。お子さんを連れて行くと子供は喜ぶと思います。実際、お子さん連れの子供は喜んでいました。高知市や東部の方は足摺までは結構な距離がありますが一度は行ってみるのも良いじゃないでしょうか?
因みに、高知県立足摺海洋館SATOUMIに45分ぐらい滞在していました。お土産屋さんでお土産を選ぶともっと時間がかかるかと思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1200, SATOUMI, いろいろ, オトナ, お子さん, コンパクト, サトウミ, スタッフ, とき, パシャ, パス, 一, 一度, 一部, 中, 予想, 今どき, 以上, 体温, 全部, 公開, 写真, 動画, 印象, 外観, 子供, 実際, 建物, 想像, 感想, 撮影, 方, 東部, 楽しみ, 水族館, 海洋館, 県立, 結構, 足摺, 距離, 逆光, 高知, 高知市,
PowerShellであれ使えるだな。
2020.10.15
wget "ダウンロードするファイルのURL" -OutFile "保存先ファイルパス"
あれというのはwgetというダウンロードするときなどに使用するcommandです。リナックス系を使用している人には使っている方も多いかもしれない。そんな素敵なcommandがウィンドウズ10のPowerShell7では使用できるみたいだ。
大量画像にダウンロードする必要があったのでダウンロードファイルをリスト化、command打つように変換した。結果、とても楽です。
事務作業している方でIT好きな方はVBAを勉強してみると確実に仕事の効率化に繋がると思っています、たまにPythonをオススメするひともいるだけど、自分はあまりオススメしません。
なぜなら、一般的な事務員さん全員がそれを取り扱えるとは思わないからです。なのでクリックすれば動くよみたいな物が作れてパソコンの環境を変えないで良いのはVBAぐらいかと思います。PowerShellでもパソコンの環境を変更しないと動かないですからね。
バッチ処理などは一般的なひとはやはりハードルが高いと思ふ・・・?
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
-Command, -OutFile, 10, 7, IT, powershell, Python, quot, url, VB, VBA, wget, あれ, ウィンドウズ, おすすめ, クリック, それ, ダウンロード, たま, とき, パス, パソコン, ひと, ファイル, リスト, リナックス, 事務, 人, 仕事, 作業, 使用, 保存, 全員, 効率, 勉強, 変換, 大量, 必要, 方, 物, 環境, 画像, 素敵, 結果, 自分,
弱者を煽り稼ぐ人。
2020.08.11
弱肉を煽り稼ぐ人がよく使う言葉は『馬鹿』です。例えばイケハヤさんやホリエモンさん、ひろゆきさんなどがあげられます。彼らは手法は違えども弱者に対してものを売っています。
ダイエットでこの商品を買えば痩せるとテレビショッピングでついつい購入して購入する人たちと『馬鹿』にはなりたくない『弱者』にはなりたくないと動画や本を購入したりオンラインサロンにまで手を出す人たちは、同じ思考だと思います。それでお金持ちになれますか?それでダイエット出来ましたか?
おそらく大半の人はお金持ちになれず、ダイエットには成功していないはずです。彼らは言うでしょう、途中で辞めたからお金持ちになれなかった、ダイエットに成功しなかったと。
さて、そもそも論で言いますが、情報弱者は摂取されて終わりです。目を覚ましましょう、お金持ちになりたければお金を使わずにそのお金を海外の分散投資にお金を回し運営することです。金融庁が行っている運用資産での利回り計算のシュミレーションがでています。毎月どれぐらい溜めていけばどのぐらいのお金が貯まり利息がどれぐらいか分かります。
逆算してお金を貯めれば、老後の心配もいらず、若ければセミリタイアも出来る可能性があります。
https://www.fsa.go.jp/policy/nisa2/moneyplan_sim/index.html
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
イケハヤ, いま, オンライン, お金, お金持ち, こと, サロン, シュミレーション, ショッピング, ダイエット, テレビ, パス, ひろゆき, ホリエモン, もの, 人, 分散, 利回り, 動画, 商品, 大半, 弱者, 彼ら, 思考, 情報, 成功, 手, 手法, 投資, 摂取, 本, 海外, 目, 肉, 言葉, 計算, 論, 資産, 購入, 途中, 運営, 運用, 金融庁, 馬鹿,