Photo by Victor Dunn on Pexels.com

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.

2025.06.22

Logging

おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.

実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。


ローカルAI記事生成は、もはや夢物語じゃない

「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。

Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。


なぜLlama 3があなたのPCと相性抜群なのか?

Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。

  • 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
  • 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
  • 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
  • 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。

あなたのPCを「記事生成マシン」に変える秘訣

もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。

  1. 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
  2. プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
  3. 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。

あなたの創造性が、今、AIで加速する

かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。

とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.

ファインチューニングPythonコード

以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。

import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType

# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
    print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
    # GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
    # exit("GPUがないため終了します。")
else:
    print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")

# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます

print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")

# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
    bnb_4bit_compute_dtype=torch.bfloat16 
)

# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"

# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    quantization_config=bnb_config,
    device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
    trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")

# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")

# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます

print(f"データセットをロード中: {DATA_DIR}")

# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
    dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
    print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
    print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
    exit("データセットロード失敗。")

# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
    # Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
    # ここでは一般的な値として2048を設定しています。
    max_length = 2048 
    # truncate=Trueで最大長を超えるテキストを切り捨てます。
    return tokenizer(examples["text"], truncation=True, max_length=max_length)

# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
    tokenize_function,
    batched=True,
    num_proc=os.cpu_count(),
    remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")

# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
    r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
    lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
    bias="none", # バイアスを学習しない設定。
    lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
    task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)

# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。

# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます

# 学習の設定
training_args = TrainingArguments(
    output_dir=OUTPUT_DIR,
    num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
    per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
    gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
    optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
    save_steps=500, # 500ステップごとにモデルを保存します。
    logging_steps=100, # 100ステップごとにログを出力します。
    learning_rate=2e-4, # 学習率。
    fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
    max_steps=-1, # num_train_epochsに基づいて学習します。
    group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
    lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
    warmup_ratio=0.03, # ウォームアップ比率。
    report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)

# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
    model=model,
    train_dataset=tokenized_dataset["train"],
    args=training_args,
    data_collator=lambda data: {
        'input_ids': torch.stack([f['input_ids'] for f in data]),
        'attention_mask': torch.stack([f['attention_mask'] for f in data]),
        'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
    },
)

# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")

# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")

# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
#     MODEL_NAME,
#     quantization_config=bnb_config,
#     device_map="auto",
#     trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
#     outputs = peft_model.generate(
#         **inputs,
#         max_new_tokens=200, # 生成する新しいトークンの最大数
#         do_sample=True, # サンプリングによる生成を有効化
#         top_p=0.9, # Nucleusサンプリングの閾値
#         temperature=0.7, # 生成の多様性を制御する温度
#         eos_token_id=tokenizer.eos_token_id # 終了トークンID
#     )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

iphoneとAndroidがフィフティ・フィフティになりつつある日本.

2025.06.09

Logging

おはようございます.iphoneとAndroidがフィフティ・フィフティになりつつある日本.自分のサイトの訪問者も五分五分感があります、昔に比べてAndroidの性能が飛躍的に上がったって言う感覚はあるでコスパの良いAndroidへ移行する人の気持ちもよくわかります.

安い志向と高級志向、どちらが悪いとか良いとかは無いですが、経済的に日本は貧しくなってきている気がしています、格差が広がってきている社会になりつつあるとも思います.

中間層もだいぶ減ってきている感覚があります、地方経済もかなりヤバメかなって特に高知県の求人を見ると数年前から給料の額が全く変わっていません.

殆どの企業は賃上げで大変な状況が続いているように思います.これから数年でこの景気が上向くとはあまり考えられないです.これに大震災でも起こったら日本は大変な状況になることは間違いないと思いますが、政治の対応が遅い感があります.

もう少し全体的にスピーディーに対応して間違っていれば改善するというような政治に移行してほしいものです.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

コス, こと, これ, サイト, スピーディー, どちら, フィフティ・フィフティ, もの, ヤバメ, よう, 中間, 五分五分, 企業, 全体, 地方, 大変, 大震災, 対応, 志向, 性能, 感覚, 改善, 政治, 日本, 明日, 景気, 格差, 殆ど, 気持ち, 求人, 状況, 社会, 移行, 経済, 給料, 自分, 訪問, 賃上げ, 間違い, 飛躍, 高知, 高級,

Devin(でびん)とかいう生成AIが凄いらしいのは知っていたけど知らんけど

2025.06.06

Logging

おはようございます.Devin(でびん)とかいう生成AIが凄いらしいのは知っていたけどついに自分が勤めている会社でもDevinを導入したみたいです.ひとつのリポジトリはDevinさんがほぼコードを書いていて何だか悲しい気持ちになりました?.

逆に言えばこういうDevinみたいな高性能な生成AIを使えば自分一人でも高機能なwebサービスが出来るだなって言う思いがあります、でも高機能なサービスが作れたとしてもそれを営業するノウハウ等がないので自分には結局意味がないのではないかと思います.

Devinさんに負けない高度なコードを書いても生産性では確実に劣っている気がします、ものの数秒で数千行のコードを書くことは人は出来そうにないので、正直なところDevinの性能が上がったら本当に必要なエンジニアは少なくなるでしょうね.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

エンジニア, コード, サービス, すひとつ, ところ, ノウハウ, びん, リポジトリ, 会社, 性能, 悲しい気持ち, 意味, 数千行, 数秒, , 生成, 生産性, 自分, 自分一人, 高性能,

GW3日目の今日の日程はこんな感じです.早朝に.

2025.05.01

Logging

おはようございます.これは予約投稿なのでこれを書いている時は子旅に行く準備をしていると思います.昨日、小旅プランのアンケートをしてみたのですが、投票0だった為、自分で決めることにしました.アンケートでは高松へ行きその周辺の島へ行くプラン、土佐入野へ行きTシャツアート展に行くプラン、最後に中村駅から沈下橋を見に行くプランが有りました.

その中から考えて選んだ結果、毎度のTシャツアート展に行くプランにしました.これを選んだのには理由があってまず高松へ行くプランはちょっと慣れない旅なので疲れそうなと旅費が割高感があるので諦めました.じゃ中村駅から沈下橋を見に行くプランにしようと思いましたが、駅から沈下橋へ行くバスがGW期間中運休だということなので、本当はこちらに行きたかったんだけども諦めました.

なので、今回は妥協して無難なTシャツアート展に行くことにしましたがもうTシャツアート展に行くことは無さそうな気がしています.最後になるかもしれないのでちょっと頑張って撮ってきます?

iphoneも新調したのできれいに撮れたら良いけども.尚、お天気は本日は曇り空だそうです🐼.

写真を撮ったり動画を撮ったりするにはちょっと曇っていた方が良いと聞きますが、あれ神話かもですね普通に晴天のときの方が映えますよね.恐らく昔のカメラはそうだったんだと思いますが今のカメラは性能が良いのでいろいろな天候に対応してきていると思います.

では、いってきまーす!✋️

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

あれ神話, アンケート, カメラ, シャツアート展, パス, プラン, 中村駅, 割高感, 土佐入野, 天候, 性能, 投票, 旅費, 晴天, 曇り空, 最後, 期間中運休, 毎度, 沈下橋, 高松,

高額スマホなので頑張らなくて綺麗に撮れるけど、高いなぁ(笑?

2025.04.14

Logging

おはようございます.先日、iphone16のPro高額スマホを購入しました.関税問題がなかったら買わなかったようなスマホです.なぜ、高いスマホを購入するかといえばそちらの方が最終的に長持ちするからです.昔は毎年のようにiphoneを買い替えていましたがある時から、スマホの進化を感じなくなり買い替えを辞めて今回8年ぐらい使っていたiphone XproMaxから買い替えた感じです.

結果、生成AIが動くiphone16にしたのだけど、本当だったらiphone17か18にしたかったというのが本音です、理由はiphone16は生成AIを搭載された最初の端末なので、これから生成AIが進化していく中で新しい生成AIはそのうち乗らなくなると思っているので.

でも生成AIが進化する事によって逆に最小の性能でも動くようになるのかも知れないという淡い期待も持ってもいます.

2025年4月12日 桜🌸

因みに、動画、写真はこのiphone16Proにしてとても綺麗に撮れるようになりました.頑張らなくても鮮明に撮れるのが良いですね.特にズームでも綺麗に撮れているのが高評価ですが、生成AIは今のところ使用していません.チャットGPTのアプリは入れているのでそれで今のところ十分な気がしています.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

アプリ, うち, ズーム, スマホ, チャット, 性能, 新しい生成, , 最初, 最小, 本音, 毎年, 淡い期待, 生成, 結果, 進化, 関税問題, 高いスマホ, 高評価, 高額スマホ,

超低コストでAI出来るって騒がれているAI界隈.NVIDIA株が崩壊.

2025.01.31

Logging

おはようございます.トランプさんになって株価が瀑上がりかと思いきや中国のAI開発陣営が超低コストでチャットGPTより性能の良いものを発表(DeepSeek)したから、AI株関連が超下落したらしいNVIDIA株なんて90兆円もの下落だとか、これからは高性能な基盤より低コストで動く高性能のAIを開発しないといけなくなりそうですね.

AI人材は争奪は激しくなりそうです、低コストなGPUで動くものがDeepSeekの登場により増えていくだろうと思います.低コストでと書いているけどGPU結構高いですよねー.そろそろ人工知能が動くGPUを積みたいなとは思っていますが、このPCに変えてから8年ぐらいは使っているのでそろそろ新しいPCに変えたいなと思っています.思っていますが軍資金がないので当分はこのPCを使い続けなければならないかと思います.

それにしてもIT界隈では激震なニュースだったと思います.特にopenAIにとってはカナリの痛手となったことは確かだと思います.そういう事もあってか、DeepSeekにサーバー攻撃を仕掛けているとかいうニュースもありますからね.オープンソースでDeepseekを公開した所が凄い、要するに無料で公開したわけですからね.そりゃー90兆円飛びますよ….

因みにトランプさんはDeepSeekのことを安いことは良いことだと言っているからね…確かにそうなんだけどアメリカ・ファーストではなかったのか?ことの重大性をあまり理解していない様子ですね.そのうち、自分のPCでも動く人工知能が登場するようになるだろうなって思います.

追伸:中国で開発するとそうなるだぁーで終わらないかもな…、そしてOpenAIのデータを不正に使用した疑いが…

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

うち, かなり, サーバー攻撃, ソース, チャット, 下落, 争奪, 人工知能, 人材, 低コスト, 基盤, 性能, , 株価, 界隈, 痛手, 軍資金, 追伸, 重大性, 開発陣営,

Photo by Bradley Hook on Pexels.com

MRは魅力的に

2024.02.24

Logging

おはようございます、先日、早朝に階段を踏み外して「ドタドタ」っと階段を滑りながら腰を強打しました、皆さんも暗い時間は電気をつけて階段をおりましょう。因みにこの投稿が公開されているころには治っていると思います。さて、YOUTUBEのVISION PRO(ヴィジョンプロ)を紹介している動画を見ていると欲しくなってきたけれど、自分が買えるのはMETA Quest3かなぁ。

【圧倒的完成度】Apple Vision Proレビュー!作業はできる?良い点と残念な点
【圧倒的完成度】Apple Vision Proレビュー!作業はできる?良い点と残念な点

50~80万円すると言われているヴィジョンプロは自分には手が出せない商品かな、因みにこのヴィジョンプロは数年後には10~20万円で発売されるという様な情報もあり、まだ庶民には手が出せないかなって思っています。

woman using vr goggles outdoors
Photo by Bradley Hook on Pexels.com

そして、この大きさではちょっと外で移動しながら使えないなって、これがコンパクトになりメガネぐらいの大きさで今の性能になれば確実にMRの流れは来ると思っています。

本音はVISIONPRO欲しい。

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Apple Vision Proレビュー, META Quest, Mr, Photo by Bradley Hook on Pexels.com, VISION PRO, VISIONPRO欲しい。, youtube, ヴィジョンプロ, ころ, メガネ, 完成度, 庶民, 性能, 早朝, 暗い時間, 本音, 皆さん, , 階段, 電気,

Photo by Magda Ehlers on Pexels.com

ビジョンプロは日本人に。

2024.02.14

Logging

おはようございます、ビジョンプロ、日本人的には高いけど外国人からすればPCを購入するぐらいの勢いで購入できる額だと思います。因みに日本円で50万円~60万円ぐらいします。確かに日本人的には高い。

First-Timer | Apple Vision Pro

こういうのを見ていると日本人のiPhone離れも納得がいきます、日本ではもうAndroid端末で良くないかっていう流れが結構来ています。ビジョンプロを購入する日本人って大半が富裕層だと思います、ビジョンプロの性能よりは劣るかもしれないけど、メタ社(旧フェイスブック社)から出ているメタクエスト(オキュラス)で良いじゃないかって思っています。こちらの端末で同じようなことは出来ますからね。

pexels-photo-818043.jpeg
Photo by Tuur Tisseghem on Pexels.com

因みにメタクエストは買うかもしれないです、その前にiPhone買い替えないと。

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Android端末, iPhone離れ, PC, Photo by Tuur, Tisseghem on Pexels.com, オキュラス, ビジョンプロ, メタクエスト, メタ社, 勢い, 外国人, 大半, 富裕層, 性能, 日本, 日本人, 日本円, 旧フェイスブック社, 端末, 納得,

Photo by rovenimages.com on Pexels.com

仮想解像度という技術で4K。

2023.10.22

Logging

おはよう御座います、仮想解像度という技術で43インチのディスプレイを4Kディスプレイにするとどういう感じになるのか、試してみたところ。文字崩れ(ぼや)はあるものの、こういう感じで4Kでは表示されるのかが分かり、今すぐ欲しいレベルではないなという事がわかったので、43インチ4Kを購入するのは控えることにしました。

いま、4K導入しようか悩んでいる方はエヌビディアの設定機能にDSR/DLDSRがあるのでそこを変更することで仮想解像度が擬似的に作ることが可能です。ちなみに自分は解像度は1980X1080で解像度を2倍まで変更することが可能でした。ビデオボードの性能にもよりますが、仮想解像度を変更することが可能です。

尚、近々、全然関係ないのですがコロナのワクチン接種があります😗、せっかくの休日熱を出したくないので速攻、熱冷ましを飲もうと思っています。

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

43インチ, 43インチ4K, 4K, 4Kディスプレイ, DLDSR, DSR, エヌビディア, コロナ, ディスプレイ, ビデオボード, ワクチン接種, 仮想解像度, 休日熱, 性能, 技術, 文字崩れ, , 解像度, 設定機能, 速攻,

巨人Gさんの大規模言語モデルBardをトライしてみた。

2023.04.27

Logging

おはようございます、先日の朝にGさんからメールが来てたので巨人Gさんの大規模言語モデルBardをトライしてみた。試してみた結果ですが、忖度なしでいうとchatGPTの方が性能良くないかなと思うところがかなりありました。まず、日本語に対応していないのが難です、試しに英語でLaravelの非同期処理を書いてと問い合わせを行ったところ、レスポンスはかなり良いのですが手順が抜けているところがあり、そのままでは非同期処理が走らせないなと思いました。chatGPTに同じ質問を投げるとartisanのmakeから手順を書いてくれるのだけど、そういうのが無かったです。

後は、スレッド形式じゃないところが困りものです、そういう意味でもchatGPTに軍配が上がります、なんだか、もう少しGさんには頑張って貰いたいです。Gさんなら出来そうなことをことごとくしていない気がします。まだ、リリースされていないので何とも言えないですが、これでは検索シェアをchatGPTに奪われそうな気がします。Gさん好きなのでGさんの本気を見てみたい気がします。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

artisan, ChatGPT, Gさん, Laravel, Make, スレッド形式, レスポンス, 大規模言語モデルBard, 少しGさん, 巨人Gさん, 忖度, 性能, 手順, , 本気, 検索シェア, 結果, 英語, 軍配, 非同期処理,

Photo by Gladson Xavier on Pexels.com

Ok GoogleやHey Siriが大きく変わるだろう。#Cortana

2023.03.05

Logging

おはようございます、chatGPTのお陰様です。マイクロソフトのあらゆる製品にchatGPTを埋め込むそうです、その中にはコルタナさんにも移植されるでしょうから、性能は飛躍的に伸びるでしょうと思っています。その流れはOk GoogleやHey Siriにも影響を及ぼすと思います。

なので、断然、今までアシスタントが飛躍的に伸びる気がします。今まで答えられなかった回答も自然な回答が出来るようになると思います。

この性能のUPしたアシスタントは新製品でしか、使えないようにするか。既存の製品でも使用出来るかで、勝敗が決まりそうな気がします。恐らくGさんは既存の製品でも使用できるようにすると思っています。

因みにアシスタントってネットに接続して質問を投げて、答えが返ってきたテキストデータを読み上げているだけですから頭脳はクラウドに有ります。なので、恐らくGさんはバードをアシスタントをOk googleに組み込むでしょう🙄。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

ChatGPT, Gさん, Hey Siri, OK Google, アシスタント, お陰様, クラウド, コルタナさん, テキストデータ, パート, マイクロソフト, 勝敗, 回答, 影響, 性能, 既存, 答え, 製品, 頭脳,

物欲リスト:自分が欲しい物を列挙してみたら、自分の物欲を可視化できたかも!?

2021.11.23

Logging

昨日は雨がしとしとと高知県でも降っていましたが、今日はお天気になるのでしょうか?さてタイトル通り、自分が欲しい物を列挙してみました、また、欲しい理由なども書いています。ほしい商品の横に理由も書いています。

  • LG モニター ディスプレイ?24インチぐらい*4台 理由:ディスプレイを全て同じ製品に統一したいから。
  • iPhone14 まだ発売されていないけど・・・理由:そろそろ買い替えたい。
  • SONYの高級ヘッドホン 理由:いまのヘッドホンがボロボロになってきているので
  • appleのAirPods三世代目 理由:iPhoneには純正製品がベストだと思うから
  • ルーターwifi6対応の高性能の奴 理由:もっとストレスフリーになりたいので。
  • 4Kテレビ 理由:親にプレゼント
  • マウスなるべく高いやつ 理由:やはりそれなりに良いマウスがいいよね。
  • キーボードなるべく高いやつ 理由:マウスと同じく。
  • 指紋認証できるUSB機器 Windowsにログイン用 理由:Windowsにログインするのが面倒くさいので。
  • エアコン 理由:親にプレゼント
  • 高性能の自作PC 理由:今のPCもある程度、高性能だけどインテルから高性能のCPUが出たと聞いたので。
  • Mac mini 理由:アプリ作るときに必要です。
  • MacBook Pro 理由:外で仕事するのに欲しい。

以上になりますね。全部、揃えていると中古車が買えちゃうじゃないかと思うぐらいのお値段になりますね。特にりんご商品は高い気がします、ノートは買わなくてもMac miniは買わないとなとは思っているですよ。

https://www.youtube.com/watch?v=XKfgdkcIUxw

こうやって自分の物欲リストを列挙してみましたが欲しい物はほぼ電化製品でした。あとは、映画のブルーレイなども欲しい物はありますが、電化製品よりかは欲求度は低い感じがします。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

14, 24, 4, 6, AirPods, apple, iPhone, LG, SONY, USB, wifi, window, いま, キーボード, ストレスフリー, それなり, タイトル, ディスプレイ, テレビ, プレゼント, ベスト, ヘッドホン, ボロボロ, マウス, モニター, やつ, リスト, ルーター, , 今日, 全て, 列挙, 可視, 商品, 天気, , 対応, 性能, 指紋, 昨日, , 機器, , 物欲, 理由, 発売, 純正, 統一, 自分, 製品, , 認証, , 高知県, 高級,

iPhone13を買わない人です?、理由はコレコレさんですから。

2021.09.17

Logging

iPhone13を買わない人です?、理由はiPhone13の機能があまり向上していないとか、iPhone12のアップデート版だとかではなくて、iPhone13に買い替えてもその性能を引き出すことができる環境にいるかと言えば違うからという理由からです。性能を引き出すことが出来る環境というのは5G環境下にいないので慌てて買う必要なくね?という理由からiPhone14以降で自分は考えています。

【iPhone13】新機能は?バッテリーと動画の性能向上 新商品お披露目

あと自分としてはiPhoneも新ipad miniのようにUSBタイプCに変えてほしかったなという思いもあります。おそらくユーザーからタイプCは好評価を得ることが出来るので、iPhoneもゆくゆくはタイプCに置き換わると思います。

ずばり、iPad miniが最も買いです【Appleイベントまとめ】

iPhoneからアンドロイド端末に変えようかなとか思ったりしていますが、iPhoneから新iPhoneにデータを移行するのにも時間がかかるのにアンドロイド端末に移行するとなるとますます、面倒くさいのでアンドロイド端末はアプリなどの動作テスト用にしか使わないですね。

トイウコトデ、今回のiPhone13に自分が買い換えることは無さそうです・・・。もしかしたら、こっそりiPhone13に変えているかもしれないけどね。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

12, 13, 14, 5, iPad, iPhone, mini, USB, アップデート, アンドロイド, こと, コレ, タイプ, データ, ユーザー, , 向上, 性能, , 時間, 機能, 理由, 環境, 移行, 端末, 自分, 評価,

サピエンス全史を超要約するとこの世は全て嘘。

2021.04.29

Logging

ユヴァル・ノア・ハラリが書いたサピエンス全史を超要約するとこの世は全て嘘で成り立っているという事になる。サピエンス全史を二倍速でアレクサにすべて朗読してもらい読了したのが数ヶ月前の事です。読んでいると下記の動画の意味するところが凄くわかります。この世の全ての根底にあるとも言えるお金は人間が発明した嘘であって、そのモノに価値はないのである。皆がお金というものに価値があるという思い込みでなりたっているのだ。サピエンス全史はかなり分厚い本だけど、超要約するとそういう事。

【世界的ベストセラー】サピエンス全史|人類は「ウソ」に生かされていた。

そういやそうだなと思うと、何故、そんなお金というものに振り回されているのだろうと思ってしまいますよね。人間は嘘を信じることで結構な部分、社会が成り立っているので結局の所、もう後戻りできそうにないです。じゃ真実はこの世にないのかと言えばそうでもなくて、唯一、科学や物理などは真実を追求しているものだと言えます。

【サピエンス全史②】貨幣も国家も宗教もこの世界は全てフィクションである

このサピエンス全史、今では漫画化されているらしいです。あの分厚い本が要約されているけど、この本は人類は嘘を信じることでいろいろな事がなりたっているだよという事を言いたかった本であり、その根源はお金を信じることから始まっているよねという本なので、漫画にされても超要約されても全然問題はない気がします。自分が読んだ感想はとても面白い印象を受けた本です。唯これを黙読せよと言われるとたぶん、自分は途中で読むのを辞めていたと思うので、めちゃアレクサの朗読機能に感謝です。オーディブルよりは性能が劣るものの、アレクサでも十分です(ただ一部読み間違いなどはあるけどね)。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

アレクサ, オーディブル, かなり分厚い本, この世, サピエンス全史, すべて朗読, ノア・ハラリ, ユヴァル, 人類, 分厚い本, 唯一, , 性能, 朗読機能, 根底, 根源, 物理, , 科学, 途中,

各社が出している筒状のアレ(AI:人工知能)

2017.11.10

Logging


各社が出している筒状の人工知能アシストの機械は良いのですか?
自分が思うに特に必要が無いかなと思います。
「ヘイ!シリ!!」や「オッケー!グーグル!!」などのスマホの人工知能で
自分は十分だし、それすらも自分は使用していない。
手の不自由な人などにとっては画期的な機械だと思う反面、
健常者にとってはあまり画期的な機械だとは思えないのです。
何のことかワカラナイ方はこちらの動画をどうぞ。
各社がPRしている動画です。

Google Home:使い方 エンターテイメント 篇

https://www.youtube.com/watch?v=FQn6aFQwBQU
https://www.youtube.com/watch?v=VZzAfO5Y64A
https://www.youtube.com/watch?v=WFCwU3E3m5U
ちなみにこの中で一番、性能の良いのはグーさんが作った製品だそうですが
日本ではLINEが一番便利なのかなと思います。
自分の場合は一人暮らしするようになれば、
上記のどれかを購入する可能性は高そうです、帰宅して
「ただいまー」って言っても誰もいないより人工知能が返答してくれる方が
未だ、気休めになりそうなのでおそらく購入する事になるでしょう???。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

アスカビジネス, グーグル, シリ, スマホ, どれか, ヘイ, 人工知能, 人工知能アシスト, 健常者, 動画, 反面, 各社, 性能, 未だ, 機械, 気休め, 筒状,

人工知能は今のところ人知を超えたモノにはならない。

2017.07.13

Logging


人工知能は今のところ人知を超えたモノにはならない訳。
前にも少し書いたけれど、今の人工知能はある種の分野には驚異的な能力を
発揮するけれど、それ以上にはならない。
ココで言う人知を超えたモノとは意識し自ら考えることが出来るかという
話です。今のところ人のように自我が人工知能にはありません。
人間の脳を模倣すれば案外簡単にそれは作れたりするかもしれませんが
もし作れたとしてもそれは模倣であり人を超えることはないと思います。
いまの人工知能、特に深層学習と呼ばれるタイプは人知を超えたモノにはならない
と素人目でもわかります。大量のデータを人工知能に学習させその中から
規則性などを取り出して判断するのですが、これは凄い事だと思いますが
こんな事をしていても恐らく自我というモノは出来ないじゃないかなと・・・。
ちなみに人の脳は自分が意識する前に脳が指示だしているらしいですね。
なので、人も本当に自我で動いているのかが疑問です。
実際、ひとも完璧な自我では無いのかもしれないと・・・。
イーロン・マスク氏はこの宇宙は仮想シュミレーションだと言っています。
実際これが否定はできないと自分は感じます。
宇宙の誕生などをPCなかで再現しようという試みがあります、
このまま、PCの性能が上がっていけば100年、200年後にはPC上で
宇宙を再現することは可能かと思うからです。
その時には自我のある人工知能もあり得ると思いますが
50年先までは無理だろうなと感じます。
それより医療革命があと数十年もすれば起きそうな気がします。
ひとは誰しも数百年生きれるような未来が来そうです(ビックデータと人工知能の恩恵で)。
 

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

イーロン・マスク, ところ人知, ビックデータ, ひと, 人工知能, 仮想, 分野, 医療革命, 宇宙, 実際, 性能, 恩恵, 深層学習, 素人目, , 自ら考えること, 自我, 規則性, 試み, 誰しも数百年,

素数判定、単純なソース。

2017.06.25

Logging

素数判定、単純なソースを作りましたので
公開します、ちなみに確率的素数判定法ではなく
ほんとに単純明快な方法で作成しましたので自分のパソコンでは
4桁までの処理が限界でした、基本:javascriptで動いています・
ローカルのパソコン性能に左右されます。
ソースを変更して5桁とか試してみるのも良いかもしれません?
サンプルサイト
https://zip358.com/tool/sosu/

function sosu(){
    let sosuno = [2];
    for(let i=3;i<=9999;i++){
        let flg = true;
        if(i%2===0){
            continue;
        }
        for(let ii=2;ii<i;ii++){
            if(ii%2===0){
                continue;
            }
            if(i%ii===0){
                flg = false;
                break;
            }
        }
        if(flg){
            sosuno.push(i);
        }
    }
    document.getElementById("my-textarea").value = sosuno.join(',');
}
document.getElementById("btn").addEventListener("click",sosu);

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

$flg, 0, 2, , 4, 5, 9999, continue, For, function, if, Ii, javascript, let, lt, sosu, sosuno, true, サイト, サンプル, ソース, パソコン, ほんと, ローカル, 作成, 公開, 処理, 判定, 判定法, 単純, 基本, 変更, 左右, 性能, 方法, 明快, 素数, 自分, 限界,

macOS Sierraをインストールしたら、フンフン言うようになった。

2016.09.23

Logging


macOS Sierraをインストールしたら、フンフン言うようになった。
そうなんです、インストールした所、冷却ファンが「ふ??ん!!」って
音が出るようになったのです。CPUを冷やすのに超頑張っているだなと言う事で
あまり性能の良くないMacに最新のmacOSをインストールすることは
オススメしません。
いまのMacBookとか冷却ファンすら着いていないと聞きますが
本当に凄いな、「ブ??ン」って音が鳴り出す事も
無いだろうね。いまの所、自分のMacBook Airは
「フ???ン」って音がなってますが、いずれ「ぶ??ん」って
異音になるだろうな。この対応としては冷却ファンの
回転数の制御とかしてあげれば良いだろうけど、安易に
回転数下げて、発火したら元も子もないので、
いまの所、このまま放置してます。
そういう症状が出た方は自分以外にも
たぶん、いるだろうなと確信しています!!
追記:
突然直りました(´∀`)。なんだったんだろうか。
 

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

A4 SX-A402, B000G1T6MQ, CPU, ELECOM, MacBook Air, macOS Sierra, ゲルクール ノートPC冷却シート, , 冷却ファン, 制御, 回転数, 性能, , 異音, 症状, 自分以外, 追記, 音がな,

格安スマホに半ば強制的に契約して頂きました(´・ω・`)

2015.01.04

Logging


格安スマホに半ば強制的に契約して頂きました(´・ω・`)Yモバイルっす。
選択したサービスは月額料金2980円のプランです。
1Gのネット通信が可能、尚且つ他社の端末にかけても
10分間、無料通話というものを選択してもらいました。
ちなみに自分は1Gでは全然、足りませんので格安スマホは
無理だと先月わかりました(´・ー・`)。
他社へ移行は結構スムーズに行くものだと実感したのですが、ネット世代の方で
格安スマホに移行したい人は店舗で手続きするより、ネットで契約結んだ方が
長々と手続きで待たされることなくスムーズに移行することが可能なんだという事を
記載しときます。ちなみにスマホをついつい外出先でも触ってしまうとか
Twitterのタイムラインを追ってる人とかは確実に1Gの上限は超過してしまうと
思います。Twitterをよく使用する自分はタイムラインで
結構パケットを食っている事をこの頃、認識しました。
なぜ、Yモバイルを薦めたかというとソフトバンク(Yahoo)の傘下だから
潰れることはないだろうという考えのもとで薦めたわけです。
※オプションは基本的につけなくて良いです。
必須項目はソフトバンクwifi(無料)のオプションだけです。
それ以外は、初期時に必須なオプションではないので薦められても
断ることは可能だと思います(たぶん)。ネットではこうだったと言えば
大抵必要最低限の必須項目のオプションしかつけてこないと思います。
※2015/01/04現在の最新Androidスマホのバージョン5.0です。
ちなみに親族が購入したスマホはAndroid4.4です。
初期設定時に自分が使用した感じでは、結構、サクサクと動くなという
印象を受けましたが・・・やはりiPhoneにはまだまだ遠いな
という感じです。最新のAndroidや性能の良いスマホは然程、
AndroidとiPhoneの差はないと思いますが、性能が落ちる機種では
やはりiPhoneが優勢だと思います。
※山間部などの通信が悪い環境では格安スマホはNGだと思います(高知県は特に)。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

, Android4.4, iPhone, Twitter, オプション, ソフトバンク, ソフトバンクwifi, タイムライン, ネット, パケット, 他社, 傘下, 大抵必要最低限, 山間部, 必須項目, 性能, 手続き, 月額料金2980円, 格安スマホ, 親族, 高知県,