@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

一言感想、欲望の資本主義メタバースの衝撃デジタル経済!
2022.09.19
おはようございます。台風が何事もなく通り過ぎるのを祈りながら日曜日のお昼に書いています✍。
8月31日頃に「欲望の資本主義2022夏メタバースの衝撃デジタル経済のパラドックス」というNHK:BSで放送されていたものを昨日、オンデマンドで購入して視聴しました。尚、単品販売一本120円ぐらいだったと思います(NHKさん、ペイペイ支払いに対応してくださいませ🙇)。
一言で感想を述べるとするならば経済が迷走していて出口が見えていないなという事が分かったぐらいですかね。あと、自分の主観を述べるとするならばメタバースが浸透するのはまだ先の話になると思います。もしかしたら、あと5年、10年先の話になるのではという印象ですね。
なので、今の子供達が大人になる頃に流行るものだと思ったほうが良さそう。スマホが浸透するにもそれぐらい時間がかかったように最初は熱狂的なテクノロジーヲタクから浸透していき、その後、一般人も認知していく様な流れになるのだろうと。
これは前半に登場された佐藤航陽 氏が書かれた書籍、世界2.0にも書かれていることですが・・・、その様に欲望の資本主義を見て思いました。
まとめ、迷走していてこれと言って、答えを見いだせない世の中が後、数年は続きそうです。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
10, 120, 2022, 31, 5, 8, bs, NHK, オンデマンド, お昼, スマホ, それぐらい, テクノロジー, デジタル, バース, パラドックス, ペイ, メタ, もの, ヲタク, 一, 一般, 一言, 主義, 主観, 事, 今, 何事, 先, 出口, 単品, 印象, 台風, 夏, 大人, 子供, 対応, 後, 感想, 放送, 日曜日, 昨日, 時間, 最初, 欲望, 浸透, 経済, 自分, 衝撃, 視聴, 話, 販売, 資本, 購入, 迷走, 頃,

未来は不確定で予想がつかないけれどブレイクスルーは🤐
2022.09.05
こんにちは、基本情報処理の動画を垂れ流しながらコードを書いています。
さて、今日は未来の話です。未来は不確定で予想がつかないけれどブレイクスルーは必ず起きる。これはどんな分野でもそうだと感じています。今、複雑なことは人でしか出来ないけれど、いづれ複雑な組み合わせも仕事も人工知能が出来るようになると思っています。
つい最近、アートの分野で自然言語(言葉)を入力するだけで絵を描いてくれる。優秀なAI(Midjourney(ミッドジャーニー))が登場して話題になりました。これから先、AI(人工知能)の民主化は続くと思います、人々はスマホをデジタルな道具として使うように人工知能のツールもツール(道具)して使うでしょう。
徐々に仕事は人工知能に奪われていくと思います、今、その転換期の始まりに立っていると自分は感じていて数十年後には一般の人にもそう感じる日が来ると思います。
これからは、人によって起こるブレイクスルーと人工知能によって起こるブレイクスルー。この2つの相乗効果によってブレイクスルーが頻繁に起きるようになると思います。そうなった時、古代人が見ると魔法の世界が広がっているかも知れません。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
AI, Google, Midjourney, アート, コード, こと, これ, ジャーニー, スマホ, スルー, ツール, つい, デジタル, ブレイク, ミッド, ロボット, 一般, 不確定, 予想, 人, 人々, 人工, 今, 今日, 仕事, 優秀, 先, 入力, 分野, 動画, 基本, 情報処理, 数十, 日, 最近, 未来, 民主化, 登場, 知能, 組み合わせ, 絵, 自分, 自然, 複雑, 言葉, 言語, 話, 話題, 転換期, 道具, 開発,

映画、キングダム2 遥かなる大地へ:実写化された映画の続編おそらく三部作?
2022.07.01
おはようございます。土曜日は局地的に大雨が30分ほど振りましたよね。
さて、7月15日から一般上映されるキングダム2ですが実写キングダム1は映画館で観てきています。でっ今回、キングダム2が上映されることになっています。
そこで自分から警告メッセージを書くとするのなら、まずは実写映画化されたキングダム1を観てからキングダム2を観るか否かを判断したほうが良いです。これが受け入れられない人はキングダム2は観ない方が良さげです。
それなりにHITするとは思うのだけどやはりCG映像には未だにアメリカと日本とでは技術に差がある感じです、なのでいくら作品が良くても気になってしまいます。今のところ自分はどちらかと言えば観に行こうとは、あまり考えていませんが機会があれば見に行くかもぐらいです。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, 15, 2, 30, 7, Cg, HIT, アメリカ, キングダム, こと, これ, そこ, それなり, ところ, どちらか, メッセージ, 一般, 三部作, 上映, 人, 今, 今回, 作品, 判断, 否, 土曜日, 大地, 大雨, 実写, 差, 感じ, 技術, 方, 日本, 映像, 映画, 映画館, 未だ, 機会, 気, 続編, 自分, 観, 警告,

windows11が近々セキュリティ強化されるらしい。
2022.04.11
おはよう御座います。徐々に気温が上がり春って感じになってきましたね。
windows11が近々セキュリティ強化されるらしいのですが、かなり大規模なセキュリティアップデートらしくて、もしかしたら再インストールが必要になってくるかもという話。
因みに、開発者用に提供されるものは再インストールが必要だとか・・・。あり得ないなって思います、もしそんな事をパブリック(一般公開)でもそれをされたら、誰も再インストールなんてしないだろうと思います。未だにwindows10を使用しているユーザーが多いから大丈夫だろうというのは、辞めていただきたいものです。
かなり大規模なセキュリティアップデートは正直な所、パソコンがクラッシュするリスクがあるので直ぐには自分は対応しないと思います。今ではマイクロソフトのセキュリティ対策で十分らしいのですが、自分は本当に大丈夫なのかが心配なのでセキュリティ対策ソフトは導入しています。
何度も危険だよというサイトに出くわしましたが、標準でそれを遮断出来るのかなって思います、普通のサイトが悪意のあるコードが仕組まれてたりします。どれぐらい脅威があるかは知らないけれどブロックしてくれるのはなんか安心しますよねwwww😌。
トイウコトで、再インストールしない方向でマイクロソフトさんお願い致します🙏。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
10, 11, Windows, アップデート, インストール, かなり, クラッシュ, セキュリティ, ソフト, それ, パソコン, パブリック, マイクロソフト, もの, ユーザー, リスク, 一般, 事, 今, 何度, 使用, 公開, 危, 大規模, 対応, 対策, 導入, 強化, 必要, 所, 提供, 春, 本当, 正直, 気温, 自分, 話, 誰, 開発者,

プラネテス=惑う人=まどうひと。キタニタツヤ!?
2022.03.14
キタニタツヤさんが歌うプラネテスという曲は良い感じだなって思う今日のこの頃。
さてプログラミングは簡単、でもそれを仕事とすることは難しい。そんなつぶやきがタイムラインに流れてきました。「確かにね」って思いましたがプログラミングがわからない人にとってはプログラミング事態が難しいことになるのでしょう、それを仕事とするのはもっと難しいものになるのでしょう。
プログラミングには簡単なものもあるし、AI(人工知能)の最前線の開発なんてのは一般エンジニアからすれば難しい事になりますからね。だた、一般的なサービスは殆どはそれほど難しいものではないです。唯、ボリュームがある程度のもの、一人で開発するには時間がかかるものが殆ど。
三流プログラマーを雇うより、ひとりの一流プログラマーを雇うほうが余程、会社に貢献することになると思います。それぐらい技量によって差が生まれる業界かと思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
AI, エンジニア, キタニ, こと, サービス, それ, それぐらい, タイムライン, タツヤ, ひと, ひとり, プラネテス, プログラマー, プログラミング, ボリューム, もの, 一人, 一流, 一般, 三流, 事, 事態, 人, 人工, 今日, 仕事, 会社, 差, 感じ, 技量, 時間, 曲, 最前線, 業界, 殆ど, 知能, 程度, 簡単, 貢献, 開発, 頃,

子供向けな地球外少年少女をNetflixで見たけどこれ大人‥。
2022.01.29
どんより曇り空でお外は寒そうです。そんな中、地球外少年少女を観ましたので感想を残しときます。
子供向けかなと思っていた地球外少年少女をNetflixで見たけどこれ大人が見ても、考えさせられる内容になっています。これからデジタル端末が進化していくと恐らくこんな感じになるだろうなって思える所や月で生まれた子供たちには、地球はどんな存在になりうるのかなど考えさせらた。
因みに地球外少年少女のアニメは都心では劇場でも前篇、後篇に分かれて上映される予定になっていますが、地方在住なのでNetflixで全話一気観したのですが観てよかったです。
尚、地球外少年少女の監督さんは電動電脳コイルのアニメを制作された磯 光雄監督さんみたいです、電脳コイルは、MR(拡張現実)が一般化した世界を描いているらしい、是非、電脳コイルも見てみたいなって思いましたので、これまた本日、Netflixで電脳コイルも少しだけ見てみました。これが15年前に描かれていたなんて凄いな。そろそろ世の中に起こりそうな予言書に思えてならなかったです。
電脳コイルも地球外少年少女も子供に安心して観せれる内容になっていますし、大人が観たらこれから先、5Gとクラウド、スマートグラスの普及によって、まさに電脳コイルの世界感になっていくと自分は思います、そういう視点からみるととても考えさせられるなって思える作品になっています。是非チェックしてみてくださいな😌。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
com, https, Mr, Netflix, watch, www, yMU-xTekqqc, youtube, アニメ, コイル, これ, デジタル, 一気, 一般, 上映, 世界, 中, 予定, 光雄, 全話, 内容, 制作, 前篇, 劇場, 在住, 地方, 地球, 外, 大人, 子供, 子供向け, 存在, 少女, 少年, 後篇, 感じ, 感想, 所, 拡張, 曇り空, 月, 現実, 監督, 磯, 端末, 進化, 都心, 電動, 電脳,

windows11のアップグレードされるまであともう少し?
2021.09.27
今日は朝、ヤシイパークまで自転車で行ってきました、行き帰りで結構な消費カロリーになるらしいですけど未だにあと10kgの体重が落ちません。今年中にはマイナス5kg落としたいなと思っています。
さて、話変わりまして10月の前半にはwindows10がwindows11へ条件を満たしていればアップグレードされます、因みに自分は条件を満たしているのでアップグレード対象者です。なんだかWindows11ってあのvistaに近い雰囲気がありますよね。今回のアップグレード、成功するかのかなぁ・・・。エンジニアが受けなくても一般ユーザーから好評だったら問題なく浸透するでしょうね。
アップグレードするとブラウザの変更が難しくなるとか言われています。初期設定で選択したブラウザから他のブラウザへ変更できないとか言われていますが、独禁法に接触すると思うので早々に変更できるようになるでしょう。なのでそういう面はあまり気にしていないのだけど、やはりGUI(グラフィックユーザーインターフェース)が大きく変わるとなれるまで時間がかかる気がします。
開発者としてはウィジェットが復活するらしいので、そこらへんは良いかなと思いますし、Androidアプリとかも仮想上で動かせるようになるのだとかで、そこらへんも良いかと思います。windows10でもアプリをインストールすれば仮想上で動かせるですけどね。
本当にあともう少し無償アップグレードが走ってwindows10とおさらばすることになるだなぁと思うと自分は複雑な気分になります。皆さんはどうですか?
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
10, 11, 5, kg, vista, Windows, アップ, エンジニア, カロリー, グレード, ブラウザ, マイナス, ヤシイパーク, ユーザー, 一般, 今回, 今年, 今日, 他, 体重, 初期, 前半, 変更, 好評, 対象者, 成功, 接触, 朝, 未だ, 条件, 気, 浸透, 消費, 独禁法, 結構, 自分, 自転車, 行き帰り, 設定, 話, 選択, 雰囲気, 面,

共同幻想には国家、仕事、お金、法律などなどがある。
2021.08.25
2日続けて晴れ間があり、そろそろ雨も開けそうな予感さえしますが、今日は午後から雨模様です。因みにピンポイント天気が結構な確率で当たることに気付いてそればかり見ています。因みにiPhoneの純正の天気予報もかなりの確率で当たります。当たらないのがYahoo!雨レーダーです。どんどん予測がヅレます。
さて、タイトル通り「共同幻想には国家、仕事、お金、法律などなどがある。」の事を書いてみようと思います、この頃、フリーランスという無職でこれっといった仕事をせずに家にいると(※仕事は探していますよ)、国家、仕事、お金、法律などなど共同幻想の事を考えることが多くなりました。
共同幻想とは大勢の人が共有している幻想であり思想であり世間一般にいう常識です。もし宇宙人が地球に来たらクエッションマークになってしまうものです。例えばお金を見てたらこんなもので物が購入できるのかと驚くかもしれませんし、そもそも宇宙人にはお金という概念すらないかもしれません。これは地球人の共同幻想なのです、人が勝手に決めてやめられない物なのかもしれないです。
この事に関してはサピエンス全史にも書かれています。
世界中がユートピアになれば国家、仕事、お金という幻想はいらなくなる可能性はあります。例えばロボットが人の代わりに労働をしてくれるようになると人は労働という仕事を奪われてしまいます。徐々にすべての労働をロボットに奪われるとお金の循環も変わってくるようになり、いずれお金は価値のないものに変わってしまうかもしれません。そうなると国家は機能しなくなり、最後に残るのは法律だけではないでしょうか?人が死ななくなると法律すら機能しなくなるかもしれません。
これから先、こういった共同幻想が徐々に崩壊していく世の中になりつつあるような気がします。あと100年後には共同幻想の一つは消えていっているでしょう。
と・・・この頃、考えを巡らすことが多いので何か前より意欲的になれない自分がいます。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2, iPhone, Yahoo, お金, かなり, クエッション, こと, これっと, それ, タイトル, つれ, ピンポイント, フリー, マーク, もの, ランス, レーダー, 一般, 世間, 予報, 予感, 予測, 事, 人, 今日, 仕事, 共同, 共有, 午後, 国家, 地球, 大勢, 天気, 宇宙人, 家, 常識, 幻想, 思想, 晴れ間, 概念, 法律, 無職, 物, 確率, 純正, 結構, 購入, 雨, 雨模様, 頃,

リモートワーク(テレワーク)のこれからどうなるだろうかと?
2021.05.18
リモートワーク(テレワーク)のこれからどうなるだろうかという疑問を考えていて、最近、この疑問に自分なりの考えの答えが出た。どこかのニュース記事にもあったけど、コロナが終息に向かえばリモートワークは減少していくと思いますが、IT企業の中小企業などはリモートワークを続けるところは結構あると思います。大企業ではリモートワークから元のオフィスワークに戻す企業は少なからずあると思います。結局、ITやITに強い人材が多い中小企業などはこれからもリモートワークを続けるだろうけれど、殆どの企業は元に戻ると思います。
理由は仕事がしづらいというのが一番なのかもしれない。長期的に見ればリモートワークにより仕事をする個人も増えてくるとは思いますが、その人達の待遇は良くないのではないかなと感じます。今回の災いで一般企業にテレワークやデジタル化は少なからず影響を与えたのは確かだけど、そんなに変わらないじゃないかなというのが自分の見解です。
このコロナ禍でプログラマーなどになりたい人が増えたということは、IT業界はレッドオーシャンになったという事だから今から目指す人達は辞めといた方が良い。これから単価は下がっていくと思います。これからは労働系が人材不足になっていくと思います。ロボットで置き換わっていく部分は多少あると思いますが、まだまだ製造業や運送業などは人材が必要です。なかなかロボットには置き換えることのできないことが多いです。なので数十年は地方の仕事が完全にロボット化されることはないと思います。
10年後からいろいろと自動化が進んでいくと思います。その頃までに大震災があればどうなんだろうね日本!?
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
IT, オフィス, これ, コロナ, デジタル, テレ, どこか, ところ, ニュース, リモート, ワーク, 一般, 中小企業, 人, 人材, 今回, 仕事, 企業, 個人, 元, 影響, 待遇, 最近, 殆ど, 減少, 災い, 理由, 疑問, 答え, 終息, 自分, 見解, 記事,

アプリ(APP)を紹介しているYOUTUBER
2020.06.21
スマホのアプリを紹介しているユーチューバー(YOUTUBER)、マメさんが伸びていきそうなので紹介します。何故、伸びそうか?それは声です、紹介が分かりやすいというのも有るのだけど、顔出ししていないYOUTUBERさんは何が大事なのかと言えば、動画の質もそうだけども。一番は聴きやすい声なんです。
それは結構重要なんですね?。声ってのは真似出来ない才能ですね。特にトークする動画は基本的に声の質が良い人が人気になります。マメさんの声も優しそうで落ち着きのあるラジオで行けそうな声の質。これはすごく伸びる材料になります。話戻してマメさんは、いろいろなアプリを短い動画枠で上手く紹介しています。自分の場合、玄人よりなので大体は知識ありなのですが、一般の人は良い話が聞けるのではないかなと思い今回、紹介に至りました。
最後にマメさんのチャンネル登録はこちら
https://www.youtube.com/channel/UCAaThwhgEMfisl0GMsd4SIg
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
App, YOUTUBER, アプリ, いろいろ, こちら, これ, スマホ, それ, チャンネル, トーク, マメ, ユーチューバー, ラジオ, 一, 一般, 人, 人気, 今回, 何, 動画, 場合, 声, 大事, 大体, 才能, 最後, 材料, 枠, 玄人, 登録, 知識, 紹介, 自分, 話, 質, 重要, 顔出し,
ホログラムは次世代ディスプレイ!?
2019.12.15
ホログラムは次世代ディスプレイになると思いますが、
まずは商業施設などで使われるようになり、15年後ぐらいには
一般家庭にもホログラムディスプレイが普及すると思います。
たぶん、まだまだ先の話です、いまの映像は
ホログラム映像が流行すれば、オールドテクノロジーになって
しまうでしょうね。
その頃の子供はホログラムが当たり前になっている世界で
暮らすことになっていると思うと、、、。
現実との境界線が曖昧になりそうな気がします。
テクノロジーって良い反面、必ず負の側面があると思います。
ホログラムの負の側面は想像性が乏しくなる可能性かなと思います。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
15, AbV-vzwJJtQ, com, https, watch, www, youtube, いま, オールド, こと, ディスプレイ, テクノロジー, ホログラム, 一般, 世界, 側面, 先, 反面, 可能性, 商業, 境界線, 子供, 家庭, 当たり前, 想像, 施設, 映像, 普及, 曖昧, 次世代, 気, 流行, 現実, 話, 負, 頃,
2015年:砂浜Tシャツアート展/高知県幡多郡黒潮町の入野海岸
2015.05.05
砂浜Tシャツアート展/高知県幡多郡黒潮町の入野海岸へ行ってきました。
行きは車で一般道路を通って黒潮町まで行ったのですが、到着するのに三時間ぐらい費やしました。
高知市内だと二時間半ぐらいはかかると思います。帰りは高速道路を使ったので一時間ほど短縮出来ました。
砂浜Tシャツアート展ですが、行って良かったものの少しばかり遠いなと感じます。
今度、行く時には電車で行こうかなと考えています。
電車だと片道4850円ぐらい費用が発生する(高知駅から土佐入野駅まで)ものの車酔いは発生しませんし、運転手だと疲労困憊になる事はないです。
主催している砂浜美術館には申し訳ないのですが、桂浜で同じようなイベントを行って欲しいと若干感じました。
ちなみに応募した皆さんが描かれたTシャツですが、風が吹いているとTシャツに描かれた作品があまり見えないのが若干難…。
しかし、風に無数のTシャツがなびいているのは圧巻でした。それを見るだけでも見に行く価値ありかと思います。
2016年の動画に差し替え。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2015, 4850, アート, ありか, イベント, いま, シャツ, それ, もの, 一, 一般, 三, 主催, 事, 二, 今度, 作品, 価値, 入野, 到着, 半, 土佐, 圧巻, 少し, 市内, 幡多郡, 応募, 思, 時, 桂浜, 海岸, 無数, 片道, 疲労困憊, 発生, 皆さん, 短縮, 砂浜, 美術館, 若干, 費用, 車, 車酔い, 運転手, 道路, 難, 電車, 風, 高知, 高知県, 高速道路, 黒潮町,

ブログが続く人、続かない人の訳(´∀`)、SEOとかそんなの置いとけ。Part2
2015.01.29
?昨日の続き、ブログが続く人はだいたい自分の好きな分野で書いていることが多いです。自分ではパソコンヲタクではないと思っているだけで、たぶん、はたから見ればかなり、パソコンやプログラムに関してはマニアックなところまで知っているだと思います。
一般市民から見ればヲタクの分類分けされるだろうと思いますが、自分ではフィギュアとか持ってないし美少女アニメとか見ないしガンダムも知らない系なのでヲタクの分類分けをすると省かれるところに居座っているとは思っているですけど・・・
でも一般市民からすればヲタクなんだろうと。
ちなみに何故かこの分野の人って結構、ガンダムをこよなく愛する人が多いです。たぶん世代を通して話せる話題なんでしょうね、ある意味、共通言語みたいなものになっています。話し戻しまして基本的に好きな分野を掘り下げていくとネタにもなり自分の知識アップや能力向上にも繋がるので、そういう分野で記事を書くことをオススメします。
SEOの話になりますが何の記事で書けばよいか?、いちばん、おすすめは誰も敵がいない分野で書くことです。自分みたいにIT関係や映画のレビュー系だと敵が結構多いですね。ある意味、激戦なのでグーグルに記事を拾ってもらうのも結構シビアです。誰も書いていなく誰一人として土俵に上がっていない分野が一番有利です。
あと本屋さんに行けばSEOの参考の本などが並んでいると思いますが、はっきり言って役に立たないです(みんながやっていることですから)、じゃ何を参考にすればよいのかといえばWEBマーケティングの本だったりします。この本に書かれている内容は基本的にネットでどう立ち振る舞えば集約が多くなるのかといった話です。俗にいうネット上の営業です。
自分が気おつけている事ですが、記事の内容が少ないと拾ってもらえませんが、あまりSEOを意識しないことです。そこだけがポイントであとは地道な日々の積み重ねです。もうひとつ言うと、SNSと連携していなければ大体、初期のアクセス数はひと桁台です、それが一年間ずっと続いたりします。それでも日々の蓄積は大事です、いつ芽が出るか分からないからです。自分の場合、ある過去記事が、テレビで放送された後、検索ワードとリンクしてアクセス数がいきなり増えた経験があります。グーグルさんは新しい記事よりも古い記事のほうが信頼性が高いと判断しやすいです。なので未来に起こることを先読みすればアクセス数は増えるですけどね・・・・。
そんな未来予測は誰も出来ません・・・・未来予測はできないけれど大きなイベント等は予定に組み込まれていますし、テレビ番組は一週間先ぐらいまで予定として組み込まれています、なので全然、未来予測ができないわけでもないのです、トイウコトデ、そこが二つ目のポイントです、そういう事を念頭に置いて書くと、運が良ければ検索で上位に並ぶ可能性があります。
検索話のうんちく…、ユーザーは4つぐらいの方法でブログなどを閲覧しに来ます。
1つ目は検索よる訪問、2つ目はSNSよる訪問、3つ目は紙媒体の広告やメディアからの訪問、4つ目は他のページからリンクよる訪問、この4つだと自分は思っています。その中で検索が未だに重要なポイントを占めています。そしてこの検索が徐々に賢くなってきていて、今では、検索する場所や地域などにも関係してきています(もう過去形)。それがもっと賢くなってきていて今では位置情報を割り出して検索ヒットの順番を変えてたり、位置情報や時間帯からユーザーのニーズに答えるものになっていますし、検索アカウントログイン有無関係なしで検索過去履歴や時間帯なども考慮して検索結果を表示しています。また検索ワードが同じでも、時間を置いてから検索すると表示順序が変わってたりします。この検索の技術向上に裏には人工知能とビックデータが存在します。今後、この技術はますます向上していくと思いますので、これからは検索のことを考えるよりも、いかにすればユーザーが満足してくれるかを考えたほうが良いと自分は思っています。逆に言えばSNSユーザーに焦点を当てたWEBマーケティングを行ったほうが良さそうです。
?
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2, Part, SEO, アップ, アニメ, かなり, ガンダム, こと, ところ, ネタ, パソコン, はた, フィギュア, ブログ, プログラム, マニアック, もの, ヲタク, 一般, 世代, 人, 人はだ, 共通, 分け, 分野, 分類, 向上, 市民, 意味, 昨日, 書, 知識, 系, 美少女, 能力, 自分, 言語, 記事, 訳, 話題,
現場のプロが教えるWEB制作の最新常識をパラ読みして(´Д`)
2014.08.25
現場のプロが教えるをパラ読みしての感想などを書いてみます。
この本ですけども、毎日WEBの技術やデザインの流行をチェックしている方は
然程目新しい内容を書いている本ではないです。
こんな方はおすすめ、Web制作会社に入社したのだけど、
周りに技術を持った人がいない、または自分の技術や知識が
どれぐらいのレベルなのか知りたいなどが分かる本です。
この本が示すトコロは世間一般でいうWeb制作会社を
軸として経営している会社のレベルです。
ただ、これは技術書ではないため、
これだけではWeb技術やデザインの知識を得ることは難しいです。
ちなみにこの本は、文章が結構多めですけど
重要な部分にはマーカー(黄背景色)を塗っているので
マーカーの前後を読むことで一通り理解できるような感じになってます。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
4844363980, asin, jp, web, おすすめ, こと, コレ, これだけ, ため, チェック, デザイン, トコロ, どれぐらい, プロ, マーカー, レベル, 一般, 一通り, 世間, 人, 会社, 入社, 内容, 制作, 前後, 周り, 多め, 常識, 感想, 技術, 技術書, 文章, 方, 最新, 本, 毎日, 流行, 現場, 理解, 知識, 経営, 背景色, 自分, 軸, 部分, 重要, 黄,