@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

そう言えば昨日マイナンバーカードをiphoneに追加しましたが.
2025.06.25
おはようございます.そう言えば昨日マイナンバーカードをiphoneに追加しました、追加方法などはこちらの記事には記載しませんがその代わりとして公式YOUTUBEの手順方法を貼っときますね.
ちょっと登録が面倒ですけど一度、追加することによりマイナポータルサイトに簡単にログイン出来るようになった所はとても良いなと感じました.
自分はたまに年金とかの確認や所得の額を見たりしているのでスマホで簡単にログイン出来るようになったのは結構大きいと思います.
また、これからスマホで出来ることが増えてくればマイナンバーカードの存在感は薄れていきそうな感じがしますが、個人経営の病院などでは恐らくマイナンバーカードや保険証がまだ必要な気がしています.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
こちら, こと, スマ, スマホ, そう, マイナポータルサイト, マイナンバーカード, よう, ログイン, 代わり, 保険, 個人, 公式, 存在, 年金, 必要, 感じ, 所得, 手順, 方法, 明日, 昨日, 病院, 登録, 確認, 簡単, 経営, 自分, 記事, 記載, 追加, 面倒,

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

思ったことを綴って小銭が毎日入るのは良いけど、小銭止まり.
2025.06.20
おはようございます.思ったことを綴って小銭が毎日入るのは良いけど毎日小銭止まりです.小銭がどれぐらいかといえばお賽銭にいれる小銭が毎日入ってくると思ってください.それが毎日入ってきて?札になる感じですが収入が銀行に毎月振り込まれるわけでもないです.
一年前?は毎月振り込まれる感じでしたが、いまは数ヶ月に一回ぐらいにペースが落ちました.でも収入が毎月コンスタントに数千円入るひともあまりいないようです.ほとんどの人は数百円止まりだそうです.
一年前と今と同じことをしているので広告収入も上がらないだと思います.多少SEO改善はしているのですが、そもそもAI時代にSEOは無意味になりつつある気がしていて自分もSNSに結構、力を入れないといけないなって思っています.
SNSと相性が良いのがいま流行っているものを記事にして発信するときです、これは相性が良いです.自分が作った推し記事をSNSへ投稿できるプラグインからのアクセス数は増えていく一方で検索からのアクセス数は徐々にだけど減少傾向にあります.
これからはSEOよりもSNSへの発信を強固にして行くほうが堅実性があるように思えてなりません.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アクセス, いま, いん, ヶ月, こと, これ, コンスタント, それ, とき, どれ, ひと, フラグ, ベース, ほう, もの, よう, わけ, 一方, 傾向, 収入, 堅実, 小銭, 広告, 強固, 感じ, 投稿, 改善, 明日, 時代, 検索, 毎日, 毎月, 減少, 無意味, 発信, 相性, 自分, 記事, 賽銭, 銀行,

適当なアプリをリリースしました、まだ審査中だけども通過するだろう.
2025.06.18
おはようございます.適当なアプリをリリースしました、まだ審査中だけども通過するだろう「きっと」.広告もない、個人情報の登録もないから申請するだけで通過すると思います.
因みにどんなアプリかといえば数字の桁数を漢字読みに変換して表示するだけのアプリ.これどんな人が使うかと言えばインバウンドで日本に来た海外の人達、いまもWebサービスとして自サイトで稼働しているものです.

日本の価格表記に漢字が混ざっていたりするので、そういう時にサ―ビスを使えば日本円での値段が分かるというものです.それを今回、ReactNative(リアクトネイティブ)でアプリ化したものをリリースしました.
最初は広告を付けようかと思ったのですが、付けると審査がめんどくさい事になりそうなので付けずにリリースしました.
何故、アプリを作ろうと思ったかをもう一度記事にするといま公開アプリが一つも無いのでアプリをリリースしないとグーグルさんがデベロッパーアカウントを解除すると警告を受けたので、適当なアプリを作ってリリースした形になります.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アカウント, アプリ, いま, インバウンド, グーグル, これ, サービス, サイト, サン, そう, それ, デベロッパー, ビズ, もの, リアクトネイティブ, リリース, 一つ, 人達, 今回, 価格, 個人, 値段, 公開, 変換, 審査, 広告, 情報, 数字, 日本, 日本円, 明日, 最初, 海外, 漢字, 申請, 登録, 稼働, 表示, 表記, 解除, 記事, 読み, 警告, 通過, 適当,

laravel sailで構築されたDockerコンテナのターミナルに入り新たなパッケージをインストールする方法.
2025.06.13
おはようございます.laravel sailで構築されたDockerコンテナのターミナルに入り新たなパッケージをインストールする方法は次の通りです.
①ターミナル上でbashと入力しエンターを行いルート権限にする.
bash
②OSのアップデートを行う
apt update
これらの手順を行うことで新たにパッケージをインストールすることが可能になります、覚えとくと便利ですよ.

あと、bash上で操作すると矢印キーなども使用可能になります.知っていると知らないとでは作業パフォーマンスが違うかなと思ったので記事に起こしてみました、ちょっとしたことだけども.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アップデート, あと, インストール, エンター, キー, こと, これら, こんてな, ターミナル, パッケージ, パフォーマンス, ルート, 作業, 使用, 便利, 入力, 可能, 手順, 操作, 新た, 方法, 明日, 構築, 権限, 矢印, 記事, 通り,

iphoneは16Proを購入するところまで行って辞めた話.
2025.04.09
おはようございます.iphoneは16Proを購入するところまで行って辞めた話を書いていきます.どうも関税の影響でiphoneが高騰する話が出てきています.そんな記事を読んだのでもうアイフォン16を購入しようと思ってAppleの公式サイトでポチる(購入ボタンを押せば買える)ところまで行って辞めました.
いろいろと考えた結果、いまの収入でこの高額なあいふぉんを購入しても使う機能は限らているし、そもそも自分はスマホをあまり触らないです.そう思うと今のアイフォンを使い倒せるまで使い倒したほうが良くないかという思いに至ったのでiphone17も買わないかもですね.
自分が使っているiosアプリが使用できなくなったら買い替えることにはなると思うけど、それはまだ先の話だと思っています.何故ならios18に対応しているのでios19に対応できなくても恐らく5年は使用できると思います.
なので、アイフォンはまだ購入しないと思います.収入UPしたとかあれば買い替える可能性はあるので思います止まりです.
今後、関税でアイフォンが馬鹿高い端末になればAndroidに変える可能性もあります.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アイフォン, アプリ, スマホ, ところ, 公式サイト, 収入, 可能性, 年, 影響, 機能, 結果, 自分, 記事, 話, 購入ボタン, 関税, 高い端末,

40歳でパーカー着てるおじさんっておかしいのか?.えっ!?該当😅
2024.12.08
おはようございます.40歳でパーカー着てるおじさんっておかしいという記事が盛り上がっているので緊急で記事を書きましたw.自分は毎日パーカーを来ているおじさんに該当します、そもそもエンジニアはパーカー着ている率高いですw.

「40代だからこういう格好をしなさい」や「40代だからこうあるべき」とか時代錯誤な気がします.
自分が知っている中ではカルビー元社長?さん、80代か70代の社長さんがパーカー着ていましたよという具合にもう高齢だからこういう格好をしているとかいう時代は10年か20年前に終わっている気がします.
もっというと流行はあるとは思いますが、これからの時代は自分が着たい服を着る時代なんじゃないかなと思います.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
$代, エンジニア, おじさん, カルビー元社長, パーカー, 代か代, 具合, 年か年前, 時代, 時代錯誤, 服, 格好, 歳, 気, 流行, 率, 社長さん, 自分, 記事, 高齢,

先日作成した自分の声の音声合成で記事を読んでもらうことにしました.
2024.11.29
おはようございます.先日作成した自分の声の音声合成で記事を読んでもらうことにしました.そしてYOUTUBEも音声合成を使って再度始めようかなと思っています.
これで詰まることなく会話が出来るのでとても良い.あとは音声合成の雑音(ノイズ)を除去出来れば言うことはなさそうです.いやーとても便利ですね.
強いて言えば記事を書いたら自動でそのテキストを元に音声合成が生成出来れば言うことはないですが、そこだけは今のところ手動で対応しています.
因みにAivisSpeechのAPIが開発中らしいので今後に期待ですね.とは言ってもAPIなので恐らく課金になるのかと思っています.
追伸:ノイズを除去出来ました.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
AivisSpeech, API, youtube, テキスト, ところ手動, ノイズ, 会話, 元, 再度, 声, 期待, 自分, 良い.あと, 記事, 課金, 追伸, 開発中, 雑音, 音声合成,

評価するボタンを追加しようかなって思って眠らせている.
2024.09.04
おはようございます.評価するボタンを追加しようかなって思って眠らせています.今週中にリリースするつもりでいます、ユーザーさんからすると「一言メッセージ」よりもハードルが低いかなと思っています.「評価するボタン」でいろいろな人に評価して頂けたらどんな記事が良いのかやニーズがあるかなどが分かるかなという事がこちらとしての利点で設置予定です.

リリースしたら是非使ってみてください.データが集まったら@zip358comの自動ポストに活用していくつもりです.直ぐにデータは集まらないかもですが一年間ぐらい放置すればそれなりに評価データが集まると思うので楽しみにしています.
🍙フォローさんが少ない@zip358comのフォローもよろしくです(AIロボットアカウント以外は相互フォローするように心がけています.).
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
AIロボットアカウント以外, zip358com, データ, ニーズ, ハードル, フォロー, フォローさん, ボタン, ユーザーさん, 一年間, 一言メッセージ, 人, 利点, 少ない@zip358com, 相互, 自動ポスト, 記事, 設置, 評価データ,

日本以外の先進国では派遣労働は違法です.ででーん.はてな.
2024.08.26
おはようございます.日本以外の先進国では派遣労働は違法です.「へぇーそうなんだ」と思った方も多いかも知れないので記事にしてみました.先日、こうポストされたひろゆき氏のことを信じている人はこれがあたかも本当のように聞こえるかも知れないですが、どうも違うみたいです.日本以外の先進国でも派遣労働という枠組みは存在しているみたい.
ひろゆき氏のポストでは違法ですと言い切っているけど、実際は日本みたいに企業よりというよりではなくて、労働者よりに作られている.

こういう発言を信じるひともいるのである意味恐いなって思いました.因みに派遣労働者として働いたことがある身から言えば、派遣労働者には重要な仕事はあまりさせてくれないなってイメージです.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
イメージ, ひと, ひろゆき氏, みたい, 人, 仕事, 企業, 先進国, 労働者, 実際, 意味, 日本, 日本以外, 枠組み, 派遣労働, 派遣労働者, 発言, 記事,

生成AIの方が自分のお喋りよりも良い所まで来ている(笑
2024.07.11
おはようございます.生成AIの方が自分のお喋りよりも良い所まで来ている(笑)、そもそも自分は自分語りが下手過ぎるぐらい下手です.逆に質問に対して答えるということにはある程度答えられるのですが、自分語りが下手過ぎて練習しても人並み以上に話せるかどうかわからないぐらい下手くそ.
その下手くそを克服するために、いま考えているのが声だけで顔出しせずにYOUTUBEで自分で思っていることを話してみようかなって思っています.最初はブログの記事を声出しで読むことから始めてみたいなって思います.
一年ぐらい毎日スピーチすれば、どのぐらい成長するのか試してみたいです.尚、過去の語りがあまりにもズブズブ沼だったら削除していきます.
トイウコトデ、そのうちYOUTUBEにUPしていこうと思っています、UPしていく様になれば告知します.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
youtube, うちYOUTUBE, お喋り, ズブズブ沼, トイウコトデ, ブログ, 一年, 人並み以上, 声, 声出し, 最初, 生成AI, 笑, 練習, 自分, 良い所, 記事, 質問, 過去, 顔,

chatGPTの様な出力を作ってみた.
2024.05.16
おはようございます、chatGPTの様な出力を作ってみました、コードを見たい方はQiitaの記事をご確認ください.
動画では吾輩は猫であるを実際に出力しています.案外、コードは簡単なコードになっていると思います、こんなのでも本家のような出力が可能です.実際、こういう事を作ってみたいと思っている方はいるかなと思って作ってみたわけですけど、需要があるようで満足しています.
https://zip358.com/tool/demo89
もう、初心者さんの気持ちが欠けてきているのでどんな所で躓いたのかが分からないです.あの頃が懐かしい....あの頃からOUTPUTしとけば良かったのかも.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
ChatGPT, qiita, コード, 出力, 初心者さん, 動画, 吾輩, 実際, 所, 本家, 気持ち, 猫, 記事, 需要,

刺さるドラマ
2024.05.07
おはようございます、挿絵が今ひとつですね.さて久しぶりにドラマを見ています、アンメットというドラマがなんか自分は刺さりました.記憶障害の女医の物語ですが、いままで見てきたドラマのなかで結構上位に入るドラマですね.

医療系のドラマは比較的に外れがあまりない気がします.その理由はヒューマンドラマが多いからなんじゃないかなって.まだ2話しか見ていないのです、これは予告投稿なのでこの記事が投稿された頃には4話ぐらい見ているかもしれないです.
因みにアンメットは漫画が原作です.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2話, 4話, アンメット, ドラマ, なか, ヒューマンドラマ, 上位, 予告投稿, 医療系, 原作, 女医, 挿絵, 気, 漫画, 物語, 理由, 自分, 記事, 記憶障害,

IllustratorとDALI-E
2024.04.19
おはようございます、イラレの生成AIとダリには雲泥の差があります.以前もそんな記事を書きましたがIllustratorはその後もそんなに進化していない.恐らくIllustratorは学習させるものが、本当にフリー素材だけで学習させているからこんなにも差がでるのではないかと思っています.

今、OpenAIなどは著作権の侵害で提訴されてきている.下手をすると生成AIを再学習させないといけなくなる可能性もある.そうなった時、Illustratorがシェアを奪還するかもしれないけれど限りなくその確率は低い、恐らく提訴されているものの殆どは和解になるだろうと.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
illustrator, OpenAI, イラレ, シェア, ダリ, フリー素材, 下手, 侵害, 可能性, 和解, 差, 殆ど, 生成AI, 確率, 著作権, 記事, 雲泥,

小説を読んだことがある
2024.04.18
おはようございます、『四月になれば彼女は』は原作を読んだことがあるので観に行くかどうか、すごく悩んでいるのですね.この記事が投稿された後に映画の感想がない場合は、映画館に足を運ばなかっただなって思っていて構わないです.
観に行っていたらXに短文の感想が流れますはずですので、その後、一週間の記事の中に映画の感想が投稿されると思います.

小説読んでいるので内容は何となく覚えています.予告を見て何となくそんな哀愁だったなってのを思い出して悩んでいるのですね.それでまだ観ていない.
観たいとVRで良いやという気持ちが半々な映画.観たら良かったと思うのかなぁー.
悩ましい.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Photo by Suzy Hazelwood on Pexels.com, Vr, X, 一週間, 予告, 内容, 半々, 原作, 四月, 小説, 彼女, 悩ましい., 感想, 映画, 映画館, 気持ち, 観, 記事, 足,

gm
2024.04.17
おはようございます、gmとはおはようございますの略称です、さてこのブログももう10年になります.2014年の記事を読み返してみるとひどいものだなぁと思う反面.これはこれで良かったのかもしれないなって思います.あの時が少し懐かしく思います.

何故、自分はブログという物を休みなく毎日書いているのかと言えば、この頃は生きたログになるじゃないかと思いもあって書いてます.ある意味、墓標みたいなものですね?🤔.
毎日書いているのですが全て予約投稿です.1-2週間先のストックが有る状態で記事を書いています、因みに結構自分の記事は予知的な記事が多くて少々自分でもコワいなって思うこともあります.
バシバシ当たるです、特に的中させようと思ってはいませんが、そうなるだろう的な記事は何故かそうなっていきます.悪いことも良いことも当たるのでこの頃は悪いことは忘れようと思っています.
特に当たるのが先端技術です、これからこうなるじゃないは結構当たる.
最後にここまで読んでくださってありがとうございます.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1-2週間先, gm, ストック, ひどいもの, ブログ, ログ, 休みなく毎日, 先端技術, 全て予約投稿, 反面, 墓標, 少々自分, 悪いこと, 意味, 最後, 物, 状態, 略称, 自分, 記事,

流体シミュレーション
2024.04.15
おはようございます、Misaki Nakano(@misaki_mofu)さんの流体シミュレーション作り方を書かれた記事が素晴らしい.これは今年初の「うぉ」っていう驚きの内容でした、分かりやすく丁寧に解説してくれています.まだ半分ぐらいしか良いでいないけど、なんか自分でも出来そうなだなって思える内容.

https://mofu-dev.com/blog/stable-fluids
賢い人には敵わない気もするけど、環境を人を作るのだなって思うこともあります.因みにMisaki Nakano(@misaki_mofu)さんはgithub社に所属しているそうです.いやー天と地ほど能力に差があるけれども、近づけるように努力したいなって思えたwebサイトでした.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
github社, Misaki Nakano, misaki_mofu, WEBサイト, 人, 内容, 初, 半分, 地ほど能力, 天, 差, 敵わない気, 流体シミュレーション作り方, 環境, 素晴らしい.これ, 自分, 記事, 賢い人,

否定より肯定
2024.03.22
おはようございます、昨日の記事はちょっとマイナス思考的な記事だった.否定より肯定が良いし何より自分がそんな記事を書いているとマイナス思考になるので書かない方が良いと思っています.
あと、頭で考えるよりトライしてみることが大事だと思っています.

自分に良いように考える思考が大事だと思っています.とくに自分はこうなるだろうという事が結構当たる方なので、「良いように考える」を意識的にしています.悪い考えが支配されないように.
トイウコトデ、否定より肯定という話でした.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Photo by Ylanite Koppens on Pexels.com, トイウコトデ, マイナス, マイナス思考, 否定, 思考, 肯定, 自分, 記事, 話, 頭,

飯を食うのは難しい
2024.03.12
おはようございます、「飯を食うのは難しい」ですね。フリーランスで生活をしている人が羨ましい限りです。お話が上手くない自分はそれで結構損をしている気がします、未だに何処まで話して良いのやらと思って生きてきたタイプです。そんな自分がこの頃、ひろゆきさんの奥さんの動画を視聴してそうなんだなぁって思えることがあったので、自分も変わろうかなって思えた話を記事に起こしています。
人のことを気にするタイプだった奥さんとは正反対のひろゆきさんですが、奥さんはそう捉えていたのかと思うとなるほどなぁと思えたのです。人にどう思われるかということを気にしない、自分が言いたいことをいうというひろゆきさんの考え方、そこが良いと思えたそうです。
「なるほどなぁ」
確かに自分の意見を言うというのは自分みたいなタイプには難しいことでもあるのですが、これを変えると何か変わる気がしています。

明日へ続く。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Photo by Valeria Boltneva on Pexels.com, お話, タイプ, ひろゆきさん, フリーランス, 人, 何処, 動画, 奥さん, 意見, 未だ, 気, 生活, 考え方, 自分, 視聴, 記事, 話, 難しいこと, 飯,

DockerとMysql
2024.03.07
おはようございます、Dockerデスクトップのコンテナが別れている時、他のコンテナからMysqlサーバーに繋ぎたいという事がありますよね。その繋ぎ方を自分は勘違いしていたので記事として残しときます。Dockerを使いだして一年目で気づく間違いです(泣)。外部コンテナのMysqlサーバーに繋ぎたい場合、下記の画像のようにmysqldbに繋がないとコネクションが出来ません。自分はMYSQL_HOSTだと思っていたのですがどうも違うようです。

これを知った時、正直なところ「えっ」って声が出たぐらい衝撃的でした。Dockerを使う前はバーチャルボックスというものを長年使っていたのですが、いまではDocker系が使いやすいです。Dockerデスクトップに慣れていたのに、DockerCLOUDの時代なんですよねぇー。
明日へ続く。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
docker, DockerCLOUD, Dockerデスクトップ, Docker系, MYSQL_HOST, mysqldb, Mysqlサーバー, コネクション, こんてな, ところ, バーチャルボックス, 下記, 声, 外部コンテナ, 時代, 画像, 繋ぎ方, 自分, 記事, 長年,

映画、線は、僕を描くを観ました。
2024.01.15
おはようございます、映画、線は、僕を描くを観ました。まずまず良かったと思います。ただちょっと重さがなかったかな。もう少し重みが合っても良かったかなとは思います。正月早々観た聲の形には負けているけど、悪い映画ではなく前へ進もうと思える作りになっていて、そんな所は良かったなって感じました。

因みに元旦にこの記事は書いたものになります。聲の形も元旦に記載しています。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ

ドッカー(Docker)でcronが動かない人たちへ。
2023.12.30
おはようございます、ドッカー(Docker)でcronが動かない人たちへ、csentos入れててcronが動かない場合は一度、アインストールしてこちらをインストールしてみてください。

yum remove cronie-anacron
yum -y install cronie-noanacron
どうもデフォルトのcronie-anacronがDockerと相性が悪いみたいなのでcronie-noanacronをしてみてください。そうすると動くようになります。みんな大好きウブントゥの記事がネット上に溢れていてcentos系(AlmaLinux)を入れていたりする人の記事が無かったりするので記事にしました。
ちなみにDockerfileにこれを入れ込んだりするのも有りだと思います。大体の人はそっちで対応していると思います。
明日へ続く。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
almalinux, Centos系, cron, cronie-anacron, cronie-noanacron, csentos, docker, dockerfile, y install cronie-noanacron, yum remove cronie-anacron yum, デフォルト, ドッカー, ネット上, みんな大好きウブントゥ, 一度, 人, 人たち, 悪い, 相性, 記事,

x.comをtwitter.comへ変換する拡張機能
2023.10.28
おはようございます。クリップボードコピーする際にx.comのurlをtwitter.comへ変更するクロームの拡張機能を作りました。これを使用するにはクリップボードの許可が必要になります💁。

どんな時に使用するか?。ワードプレスの記事に貼り付ける際、x.comのurlなのでワードプレスの方でウィジェットに変換されないという問題が発生するのですが、その問題を解決するために、この拡張機能を作成しました。これで一応、解決したのですが、クリップボードの権限を許可しないといけないのが、ちょっと自分としてはどうかなぁーと考えることがあります。
これを書いているときは、まだ審査中ですが、公開される頃には拡張機能も公開されていると思います。なので…、追伸で公開URLを貼ります。
こちらになります。⏩x-convert-twitter
明日へ続く。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
twitter.com, url, x-convert-twitter, X.com, ウィジェット, クリップボード, クローム, ワードプレス, 公開URL, 問題, 審査中, 拡張機能, 権限, 自分, 記事, 許可, 追伸, 際,

アクセス数が倍になりました。
2023.10.25
おはようございます、この頃、アクセス数が倍になりました。おそらくGさんの検索アルゴリズムが変更されたから、そのようになっただけの話でまた、急落する可能性も秘めているので基本的にこれからも淡々と書いていこうと思います。

このブログ、もう10年以上も掲載しているはずなんですけど・・・。途中でデータを飛ばしてしまって2年か3年のデータが飛んじゃっているのですね。なので、途中のぽっい記事がスタートになっています。
いつまでブログを書くのかは今の所きめてはいませんが、ここまで続いたのだから書ける所まで書き続けようかなって思います。因みに過去の記事データが復旧可能か近々調べてみます。
それと、アクセス数が倍になっても自分の書いていこうと思う記事が変化することはないです。これからも自分の気づきと日常生活で思ったこと、感じたことを書いていくので応援よろしくお願い致します🙇。
明日へ続く。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
10年以上, Gさん, アクセス数, この頃, スタート, データ, ブログ, 倍, 可能性, 復旧, 応援, 所, 日常生活, 検索アルゴリズム, 自分, 記事, 記事データ, 話, 途中, 過去,

人が増えても速くならないという本はあるあるネタだった。
2023.08.16
おはようございます、今日から生成AIを使用せずに書いた記事になります。人が増えても速くならないという本(著者:倉貫 義人(くらぬき よしひと))を紹介していた高知県の人がいたので読んでみたけど、エンジニアさん目線で書かれたエンジニアあるあるネタでしかなかった。この本はエンジニアさんを雇用しようとしている人やエンジニアさんに依頼しようとしている人には持って来いな本です。エンジニアさんではない方が疑問に思っていたことを凄く分かりやすく的確に伝えている本なので是非、手にとって読んで欲しいと切に願うエンジニアさんは多いのではないだろうか?

エンジニアさんが読むとあるあるネタなので同調してしまう。とてもスラスラと読めてしまう本なので是非。こういう問題はよく耳にするなって思うことはどこの現場でも起こっていることだと思ってそうなんだなぁとかね、読んでいると為になるので本当に良いと思いました。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
エンジニア, エンジニアさん, エンジニアさん目線, くらぬき, ネタ, よしひと, 人, 問題, 手, 本, 現場, 生成AI, 疑問, 義人, 耳, 著者, 記事, 高知県,