@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

思ったことを綴って小銭が毎日入るのは良いけど、小銭止まり.
2025.06.20
おはようございます.思ったことを綴って小銭が毎日入るのは良いけど毎日小銭止まりです.小銭がどれぐらいかといえばお賽銭にいれる小銭が毎日入ってくると思ってください.それが毎日入ってきて?札になる感じですが収入が銀行に毎月振り込まれるわけでもないです.
一年前?は毎月振り込まれる感じでしたが、いまは数ヶ月に一回ぐらいにペースが落ちました.でも収入が毎月コンスタントに数千円入るひともあまりいないようです.ほとんどの人は数百円止まりだそうです.
一年前と今と同じことをしているので広告収入も上がらないだと思います.多少SEO改善はしているのですが、そもそもAI時代にSEOは無意味になりつつある気がしていて自分もSNSに結構、力を入れないといけないなって思っています.
SNSと相性が良いのがいま流行っているものを記事にして発信するときです、これは相性が良いです.自分が作った推し記事をSNSへ投稿できるプラグインからのアクセス数は増えていく一方で検索からのアクセス数は徐々にだけど減少傾向にあります.
これからはSEOよりもSNSへの発信を強固にして行くほうが堅実性があるように思えてなりません.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アクセス, いま, いん, ヶ月, こと, これ, コンスタント, それ, とき, どれ, ひと, フラグ, ベース, ほう, もの, よう, わけ, 一方, 傾向, 収入, 堅実, 小銭, 広告, 強固, 感じ, 投稿, 改善, 明日, 時代, 検索, 毎日, 毎月, 減少, 無意味, 発信, 相性, 自分, 記事, 賽銭, 銀行,

yieldの発音としては「イィールドゥ」が該当するが、日本語では「イールド」と読むのが一般的らしい
2025.04.01
おはようございます.yieldの発音としては「イィールドゥ」が該当するが、日本語では「イールド」と読むのが一般的らしい、そもそも自分は読むことすら最初は出来なかったのですが、イールドの意味は生む、生産する、収率などなどの意味があります.PHPではジェネレータ処理の時に使用されますね.
ジェネレータ(generator)とは生産機などの意味があります、因みに古のPHP 5.5 から導入されたイテレータ(iterator)を簡単に実装できる機能で、反復処理においてメモリを節約しながら処理できるというものでとても理にかなっています.
イテレータという古の呪文を唱えなくても簡単にできる点で言えばアレに似ています.JavaScriptのasync awaitが登場する前にとても似ています…
ジェネレータ処理はストリーミング処理と相性が良いです.ストリーミング処理といえば大量のデータを扱う時に相性が良いということです.
尚、LaravelではLazyCollection(レイジーコレクション)というものがジェネレータ処理に当たります.レイジーとは怠け者🦥という意味らしいです.
最後にLazyCollection(レイジーコレクション)のドキュメントリンクを貼っときます.
https://readouble.com/laravel/11.x/ja/collections.html#:~:text=LazyCollection
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アレ, イールド, イィールドゥ, イテレータ, ジェネレータ, ジェネレータ処理, ストリーミング処理, ドキュメントリンク, メモリ, レイジー, レイジーコレクション, 反復処理, 収率, 古, 呪文, 怠け者, 最後, 理, 発音, 相性,

ドッカー(Docker)でcronが動かない人たちへ。
2023.12.30
おはようございます、ドッカー(Docker)でcronが動かない人たちへ、csentos入れててcronが動かない場合は一度、アインストールしてこちらをインストールしてみてください。

yum remove cronie-anacron
yum -y install cronie-noanacron
どうもデフォルトのcronie-anacronがDockerと相性が悪いみたいなのでcronie-noanacronをしてみてください。そうすると動くようになります。みんな大好きウブントゥの記事がネット上に溢れていてcentos系(AlmaLinux)を入れていたりする人の記事が無かったりするので記事にしました。
ちなみにDockerfileにこれを入れ込んだりするのも有りだと思います。大体の人はそっちで対応していると思います。
明日へ続く。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
almalinux, Centos系, cron, cronie-anacron, cronie-noanacron, csentos, docker, dockerfile, y install cronie-noanacron, yum remove cronie-anacron yum, デフォルト, ドッカー, ネット上, みんな大好きウブントゥ, 一度, 人, 人たち, 悪い, 相性, 記事,

クラウドワークスの崩壊前夜。
2023.07.25
おはようございます、この頃、クラウドワークスでお小遣い稼ぎをしたいなって思いWeb系のクラウドワークスを覗いてみたら、一つの案件に数十件もの応募者が来ている状態になっていたので、もうクラウドワークスは崩壊だなって感じました。何故こんなにもクラウドワークスに応募者が増加したのかと言えば生成AIを使用して何とかなるだろうという考えのもと応募している人が増えたとのだろうと。

Web系の応募者が増加しているけど、ソフトウェアやアプリ系の応募者は今のところ以前と変わりない応募者になっている事でも分かる通り、生成AIはアプリ開発などとはあまり相性が良くない、逆にWeb系とは生成AIは相性が良い、でもこれも表面上の話で生成AIで複雑怪奇なものやフレームワークを駆使したサイトを改修するには全然駄目なのが現状にも関わらず、生成AIで何とかなるだろうと応募する応募者が増加していると自分は増加傾向から推測したのだけど、実際はどうなのかは明確には分からない。
こんなにも応募者が増加しているとマッチングが成立しない事が増えそうだ、恐らくクラウドワークス側も何らかの対策を取るためのシステムを開発していると思います。それを開発できないと恐らくクラウドワークスは崩壊すると思っています。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Photo by Chris J Mitchell on Pexels.com, Web系, アプリ開発, クラウドワークス, クラウドワークス側, この頃, システム, ソフトウェア, フレームワーク, マッチング, もと応募, 増加傾向, 対策, 崩壊, 案件, 現状, 生成AI, 相性, 表面上, 通り,

昨日まで英語の記事でした。実験的な何か?。
2023.06.24
おはようございます。昨日まで英語の記事でした。実験的な何かです?
chatGPTに日本語記事を英語の記事にしてもらいました。来週の水曜日にchatGPTを使用したワードプレスでプラグインを公開します。2つほどプラグインを作ります。1つ目は日本語記事をプラグインで英語に変換するプラグインです。もう一つはちょっと問題作なのでアルゴリズムとソースコードを公開します。
これからchatGPTのAPIを活用したプラグインが続々と世に出ていくと思いますが、やはりchatGPTはテキストの相性抜群だと思います。因みにワードプレスのプラグインのソースコードを書いてと問い合わせを行えばソースコードの例文を書いてくれますが、これがちゃんと動くかどうかは微妙ですね。
chatGPTはたまに間違った返答を書きます、なんだか人を試しているかのように。それを見抜く力がないと大変です。なのでchatGPTを使用するには一定量の知識が必要になりますし検証は大事です。今の機械学習の精度は問い合わせにより解答の精度が違いますので、知識量が多いと上手く解答を導き出すことが出来るかと思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
API, ChatGPT, アルゴリズム, ソースコード, テキスト, プラグイン, ワードプレス, 一定量, 例文, 問題作, 検証, 機械学習, 水曜日, 相性, 知識, 知識量, 精度, 英語, 解答, 返答,

漫画家がぞくぞくYOUTUBEに参入されています。
2021.05.06
漫画家がぞくぞくYOUTUBEに参入されています、例えば漫画家・浦沢直樹(Twitter)さんやおやすみプンプンやソラニンの描かれている漫画家・浅野いにおさんなどがYOUTUBEチャンネルを開設されて活動されています。
浦沢直樹さんのチェンネル
https://www.youtube.com/channel/UCkIFOAoFm47XOAlJwTa6Ieg
浦沢直樹さんはこの頃、YOUTUBEチャンネルされていますが、浅野いにお(Twitter)さんは結構前からYOUTUBEチャンネルを開設されて漫画家・畳ゆか(Twitter)さんと語らいながら作画しているところをライブ配信しています。ライブ配信はチャットもオープンにされているのでファン声をライブで書けるというのは貴重なだなと思えます。
そして、動画を見ていると漫画家さんとYOUTUBEってかなり相性が良いかなと感じます。見ている方もプロがどんな感じに作画やペンを走らして描いているのかなどがわかったりして良い感じです。これから先、漫画家さんがYOUTUBEにチャンネルを開設するという流れは増していくのではないかなと自分は思っています。
浅野いにおさんのYOUTUBEチャンネル
https://www.youtube.com/channel/UCUISMkOhQ2Em1uhXO7uIN8g
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Twitter, You, youtube, オープン, おやすみ, かなり, これ, ソラニン, チェン, チャット, チャンネル, ところ, ネル, ファン, プロ, プンプン, べん, ゆか, ライブ, 作画, 先, 前, 動画, 参入, 声, 感じ, 方, 活動, 浅野いにお, 浦沢直樹, 漫画家, 畳, 相性, 配信, 開設, 頃,
面接という謎。
2020.07.19
面接で自分をよく見せず、もうありのままで返答しています。堅苦しい喋りは自分にはあいません。それでも受け入れてくれる会社で頑張っていこうと思っています。皆、なんだか大人対応していて集団面接とかいくと凄いなぁと思います。どんだけ、殻をかぶって生きているのだろうかと。
こんなので、大体の企業さんから技術はあるけど、総合的に判断すると駄目みたいな返答をいただきますが、総合的に良い人材なんていないじゃないかと思っています。なので大体は貴方と相性が合わないと要約しています。
1時間以上、面接すればそのひとの事が見えてくると思うのですが、そうでもない限り表面上すら見ることは出来そうにないし、実際に働かさないとその人の本質的なものは見えてこないと思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, ありのまま, こと, そのひと, それ, もの, 事, 人, 人材, 企業, 会社, 判断, 大人, 大体, 実際, 対応, 技術, 殻, 皆, 相性, 自分, 表面, 要約, 謎, 貴方, 返答, 限り, 集団, 面接, 駄目,
僧侶YOUTUBERが般若心経を音にのせる。
2020.03.23
僧侶YOUTUBERが般若心経を音にのせる。このお坊さん、ニコニコ大会議でも登壇?されているので知っている人も多いかと思いますが、般若心経って音にのせると心地よい感じですよね。そもそも般若心経って音程が良い感じなので音楽との相性は良いかなと思います。これを冒涜だというひともいるかも知れないですが、そういう僧はおそらく修行がなっていないだと・・・。
僧侶繋がりでDJ僧侶もいますよね。日本にはいろいろな僧侶がいるのだなと感心します。また若い僧侶はYOUTUBEでお悩み相談を行っている僧侶もいたりします。日本には昔にも一休宗純というひとも居たのだから、こういう流れは有りだと思います。
最後にチャンネル登録はこちら(歌う僧侶 薬師寺寛邦 キッサコ)
https://www.youtube.com/channel/UCIzrjVw3rZfaoorzW75JOCA
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
3, 75, channel-, com, DJ, https, JOCA, rZfaoorzW, UCIzrjVw, www, youtube, YOUTUBER, いろいろ, お坊さん, キッサコ, こちら, これ, チャンネル, ひと, 一休宗純, 人, 会議, 修行, 僧, 僧侶, 冒涜, 寛邦, 感じ, 感心, 日本, 昔, 最後, 登壇, 登録, 相性, 相談, 般若心経, 薬師寺, 音, 音楽, 音程,
20代はお金を貯めようともしなかった(゚Д゚)。
2016.06.07
20代はお金を貯めようともしなかった。
いま、20代の自分に一言言うなら、少しぐらいお金を
貯めとけと言いたい。
もうひとつ付け加えるとするならば
遊ばない人はもっと遊べということを追加したい。
20代後半になると知人友人などの結婚が多くなり
30代になるとそのお呼びも減り、出会いが少なくなる。
歳だけを重ねていき、結婚が遠ざかっていく事になるので
早いうちから、出会いの場所には足を運ぶことを
オススメします!!
出会いはいらないというのなら
確実にお金は貯めといたほうが良い。
お金も貯めず出会いもなければ
若い時は良いけど年老いてから大変になります。
ちなみに幸福な人生を送るには
地域や社会と繋がりがあるかどうかだそうです。
追跡調査の研究結果によりそういう結果がでているそう。
また40代以上になると
結婚できる確率がガクッと低くなるそうなので(1%ぐらいに)
20代、30代と言わず、結婚したいなら
行動あるのみです。
それなりに相性ってものがあるから
誰とでも付き合いたいわけではないのですからね。皆んな。
だから、20代にはお金を貯めつつ
出会いの場に足を運ぶことをオススメします。
ちなみに下記の本は
自分の言っていることと少し真逆なところが
あります(゚Д゚)。こちらの方が理にかなっているのかも。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
お呼び, お金, つながり, もうひとつ, 一言, 下記, 出会い, 出会い論, 少し, 早いうち, 法則, 相性, 知人友人, 研究結果, 確率, 結婚, 繋がり, 足, 追跡調査,
Notepad++からNetBeansにエディタを変更しました。
2015.06.08
Notepad++からNetBeansにエディタを変更しました。何故、変更したかというとこちらの方が開発しやすいから痒いところに手が届いている感じがします。ただ、良いところばかりでもないのです、無料ですからあまり言えないですが若干、起動が重たいと感じます。また、プロジェクトを設定するときに既存ファイルやリモート設定でプロジェクトを作ろうとするとファイルが多い場合動作が重いです。あとは、補完機能もありますしいろいろと便利な機能が備わっていますので総合的にはかなり使えるIDEです。今後、notepad++はちょっとした修正の時に使用し、ガリガリとコードを書く場合はNetBeansを使用すると思っています。ちなみに、Macにも同様にインストールしてみた結果、Macのほうが相性が良いように感じました。JavaってMacの方が相性が良いのかぁ?
「いろいろとしたい事があります、Webでちょっとしたものを作りたい。Androidアプリも作りたいとか、Visual Studioでちょっとしたものを作りたいとか・・・やりたい事はいっぱいあるものの。基本、ひとりで動いているので捗らないのです。やはりそう言う仲間がいれるとぜんぜん違うだろうなと感じてしまう。今日このごろですが・・・・。一人でも出来る人はできるから一概には言えないのですけどね。」とこの頃、ボヤいてます。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Androidアプリ, java, Mac, NetBeans, Notepad, Visual Studio, エディタ, かなり使えるIDE, コード, ひとり, プロジェクト, リモート設定, 今日このごろ, 修正, 多い場合動作, 既存ファイル, 痒いところ, 相性, 補完機能, 起動,